From 641420bcba03aa8a2bf7da4b2a84832598c9a9f0 Mon Sep 17 00:00:00 2001 From: Arvin Xu Date: Wed, 1 Jan 2025 16:02:59 +0800 Subject: [PATCH] =?UTF-8?q?=F0=9F=91=B7=20build:=20update=20i18n=20and=20f?= =?UTF-8?q?ix=20docker=20build=20(#5253)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- locales/ar/components.json | 3 +++ locales/ar/modelProvider.json | 16 ---------------- locales/ar/models.json | 12 ++++++++++++ locales/ar/setting.json | 3 +-- locales/bg-BG/components.json | 3 +++ locales/bg-BG/modelProvider.json | 16 ---------------- locales/bg-BG/models.json | 12 ++++++++++++ locales/bg-BG/setting.json | 3 +-- locales/de-DE/components.json | 3 +++ locales/de-DE/modelProvider.json | 16 ---------------- locales/de-DE/models.json | 12 ++++++++++++ locales/de-DE/setting.json | 3 +-- locales/en-US/components.json | 3 +++ locales/en-US/modelProvider.json | 16 ---------------- locales/en-US/models.json | 12 ++++++++++++ locales/en-US/setting.json | 3 +-- locales/es-ES/components.json | 3 +++ locales/es-ES/modelProvider.json | 16 ---------------- locales/es-ES/models.json | 12 ++++++++++++ locales/es-ES/setting.json | 3 +-- locales/fa-IR/components.json | 3 +++ locales/fa-IR/modelProvider.json | 16 ---------------- locales/fa-IR/models.json | 12 ++++++++++++ locales/fa-IR/setting.json | 3 +-- locales/fr-FR/components.json | 3 +++ locales/fr-FR/modelProvider.json | 16 ---------------- locales/fr-FR/models.json | 12 ++++++++++++ locales/fr-FR/setting.json | 3 +-- locales/it-IT/components.json | 3 +++ locales/it-IT/modelProvider.json | 16 ---------------- locales/it-IT/models.json | 12 ++++++++++++ locales/it-IT/setting.json | 3 +-- locales/ja-JP/components.json | 3 +++ locales/ja-JP/modelProvider.json | 16 ---------------- locales/ja-JP/models.json | 12 ++++++++++++ locales/ja-JP/setting.json | 3 +-- locales/ko-KR/components.json | 3 +++ locales/ko-KR/modelProvider.json | 16 ---------------- locales/ko-KR/models.json | 12 ++++++++++++ locales/ko-KR/setting.json | 3 +-- locales/nl-NL/components.json | 3 +++ locales/nl-NL/modelProvider.json | 16 ---------------- locales/nl-NL/models.json | 12 ++++++++++++ locales/nl-NL/setting.json | 3 +-- locales/pl-PL/components.json | 3 +++ locales/pl-PL/modelProvider.json | 16 ---------------- locales/pl-PL/models.json | 12 ++++++++++++ locales/pl-PL/setting.json | 3 +-- locales/pt-BR/components.json | 3 +++ locales/pt-BR/modelProvider.json | 16 ---------------- locales/pt-BR/models.json | 12 ++++++++++++ locales/pt-BR/setting.json | 3 +-- locales/ru-RU/components.json | 3 +++ locales/ru-RU/modelProvider.json | 16 ---------------- locales/ru-RU/models.json | 12 ++++++++++++ locales/ru-RU/setting.json | 3 +-- locales/tr-TR/components.json | 3 +++ locales/tr-TR/modelProvider.json | 16 ---------------- locales/tr-TR/models.json | 12 ++++++++++++ locales/tr-TR/setting.json | 3 +-- locales/vi-VN/components.json | 3 +++ locales/vi-VN/modelProvider.json | 16 ---------------- locales/vi-VN/models.json | 12 ++++++++++++ locales/vi-VN/setting.json | 3 +-- locales/zh-CN/common.json | 2 +- locales/zh-CN/components.json | 3 +++ locales/zh-CN/modelProvider.json | 16 ---------------- locales/zh-CN/models.json | 12 ++++++++++++ locales/zh-CN/providers.json | 2 +- locales/zh-CN/setting.json | 3 +-- locales/zh-TW/components.json | 3 +++ locales/zh-TW/modelProvider.json | 16 ---------------- locales/zh-TW/models.json | 12 ++++++++++++ locales/zh-TW/setting.json | 3 +-- package.json | 4 ++-- 75 files changed, 292 insertions(+), 328 deletions(-) diff --git a/locales/ar/components.json b/locales/ar/components.json index 85d54a0ccb2f..5ca5b783a446 100644 --- a/locales/ar/components.json +++ b/locales/ar/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "عودة" }, + "MaxTokenSlider": { + "unlimited": "غير محدود" + }, "ModelSelect": { "featureTag": { "custom": "نموذج مخصص، الإعداد الافتراضي يدعم الاستدعاء الوظيفي والتعرف البصري، يرجى التحقق من قدرة النموذج على القيام بذلك بناءً على الحالة الفعلية", diff --git a/locales/ar/modelProvider.json b/locales/ar/modelProvider.json index 4c13bc8eecd3..68c55561cdaa 100644 --- a/locales/ar/modelProvider.json +++ b/locales/ar/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download specified Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "أدخل معرف مفتاح الوصول لـ SenseNova", - "placeholder": "معرف مفتاح الوصول لـ SenseNova", - "title": "معرف مفتاح الوصول" - }, - "sensenovaAccessKeySecret": { - "desc": "أدخل سر مفتاح الوصول لـ SenseNova", - "placeholder": "سر مفتاح الوصول لـ SenseNova", - "title": "سر مفتاح الوصول" - }, - "unlock": { - "description": "أدخل معرف مفتاح الوصول / سر مفتاح الوصول لبدء الجلسة. التطبيق لن يسجل إعدادات المصادقة الخاصة بك", - "title": "استخدم معلومات مصادقة SenseNova المخصصة" - } - }, "wenxin": { "accessKey": { "desc": "أدخل مفتاح الوصول من منصة بايدو تشيانفان", diff --git a/locales/ar/models.json b/locales/ar/models.json index 5b9cf3066760..98593a2b58d2 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "جيميناي 2.0 فلاش إكسب هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من جوجل، يتمتع بميزات الجيل القادم، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط التجريبي من Google، يتميز بخصائص الجيل التالي، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط." + }, "gemini-exp-1114": { "description": "جيمني إكسب 1114 هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط تجريبي من Google، يتميز بقدرة معالجة سريعة، ويدعم إدخالات النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مهام متعددة." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B هو نموذج لغوي كبير مخصص من NVIDIA، يهدف إلى تحسين استجابة LLM لمساعدة استفسارات المستخدمين. لقد أظهر النموذج أداءً ممتازًا في اختبارات المعايير مثل Arena Hard وAlpacaEval 2 LC وGPT-4-Turbo MT-Bench، حيث احتل المرتبة الأولى في جميع اختبارات المحاذاة التلقائية الثلاثة حتى 1 أكتوبر 2024. تم تدريب النموذج باستخدام RLHF (خاصة REINFORCE) وLlama-3.1-Nemotron-70B-Reward وHelpSteer2-Preference على أساس نموذج Llama-3.1-70B-Instruct." }, + "o1": { + "description": "يركز على الاستدلال المتقدم وحل المشكلات المعقدة، بما في ذلك المهام الرياضية والعلمية. مثالي للتطبيقات التي تتطلب فهمًا عميقًا للسياق وإدارة سير العمل." + }, + "o1-2024-12-17": { + "description": "o1 هو نموذج الاستدلال الجديد من OpenAI، يدعم إدخال النصوص والصور وإخراج النصوص، وهو مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 200K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." + }, "o1-mini": { "description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini هو أحدث نموذج من OpenAI تم إطلاقه بعد GPT-4 Omni، ويدعم إدخال النصوص والصور وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة." }, + "openai/o1": { + "description": "o1 هو نموذج الاستدلال الجديد من OpenAI، يدعم إدخال النصوص والصور وإخراج النصوص، وهو مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 200K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." + }, "openai/o1-mini": { "description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." }, diff --git a/locales/ar/setting.json b/locales/ar/setting.json index 55edc2a60e54..70310b5a8ecd 100644 --- a/locales/ar/setting.json +++ b/locales/ar/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "تكوين النموذج المخصص", "tokens": { - "title": "أقصى عدد من الرموز", - "unlimited": "غير محدود" + "title": "أقصى عدد من الرموز" }, "vision": { "extra": "ستفتح هذه الإعدادات فقط القدرة على تحميل الصور داخل التطبيق، وما إذا كانت القدرة على التعرف مدعومة يعتمد تمامًا على النموذج نفسه، يرجى اختبار قابلية استخدام التعرف البصري لهذا النموذج بنفسك", diff --git a/locales/bg-BG/components.json b/locales/bg-BG/components.json index e1d52c6cd0b5..43f732c61c3d 100644 --- a/locales/bg-BG/components.json +++ b/locales/bg-BG/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Назад" }, + "MaxTokenSlider": { + "unlimited": "Неограничено" + }, "ModelSelect": { "featureTag": { "custom": "Потребителски модел, по подразбиране поддържа функционалност за функционални обаждания и визуално разпознаване, моля, потвърдете наличието на тези възможности спрямо реалните условия", diff --git a/locales/bg-BG/modelProvider.json b/locales/bg-BG/modelProvider.json index b09065aad060..a6fe0f16f2b4 100644 --- a/locales/bg-BG/modelProvider.json +++ b/locales/bg-BG/modelProvider.json @@ -131,22 +131,6 @@ "title": "Изтегляне на зададения Ollama модел" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Въведете SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Въведете SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Въведете вашия Access Key ID / Access Key Secret, за да започнете сесия. Приложението няма да записва вашите конфигурации за удостоверяване", - "title": "Използвайте персонализирана информация за удостоверяване на SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "Въведете Access Key от платформата Baidu Qianfan", diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index da464a8eb0a8..35dd9d258b99 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp е най-новият експериментален мултимодален AI модел на Google, предлагащ следващо поколение функции, изключителна скорост, нативно извикване на инструменти и мултимодално генериране." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp е най-новият експериментален мултимодален AI модел на Google, с ново поколение функции, изключителна скорост, нативни инструменти за извикване и мултимодално генериране." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 е най-новият експериментален многомодален AI модел на Google, който предлага бърза обработка и поддържа вход от текст, изображения и видео, подходящ за ефективно разширение на множество задачи." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B е голям езиков модел, персонализиран от NVIDIA, предназначен да увеличи полезността на отговорите, генерирани от LLM на потребителските запитвания. Моделът показва отлични резултати в бенчмаркове като Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, като заема първо място в трите автоматизирани теста за подравняване към 1 октомври 2024 г. Моделът е обучен с RLHF (по-специално REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки на базата на Llama-3.1-70B-Instruct модела." }, + "o1": { + "description": "Фокусиран върху напреднали изводи и решаване на сложни проблеми, включително математически и научни задачи. Изключително подходящ за приложения, изискващи дълбочинно разбиране на контекста и управление на работни потоци." + }, + "o1-2024-12-17": { + "description": "o1 е новият модел за извод на OpenAI, който поддържа вход и изход на текст и изображения, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 200K и крайна дата на знанията от октомври 2023 г." + }, "o1-mini": { "description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат." }, + "openai/o1": { + "description": "o1 е новият модел за извод на OpenAI, който поддържа вход и изход на текст и изображения, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 200K и крайна дата на знанията от октомври 2023 г." + }, "openai/o1-mini": { "description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023." }, diff --git a/locales/bg-BG/setting.json b/locales/bg-BG/setting.json index 0f5882167056..bd1cf469bdca 100644 --- a/locales/bg-BG/setting.json +++ b/locales/bg-BG/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Конфигурация на персонализиран модел", "tokens": { - "title": "Максимален брой токени", - "unlimited": "неограничен" + "title": "Максимален брой токени" }, "vision": { "extra": "Тази конфигурация ще активира само настройките за качване на изображения в приложението. Поддръжката на разпознаване зависи изцяло от самия модел, моля, тествайте наличността на визуалната разпознаваемост на този модел.", diff --git a/locales/de-DE/components.json b/locales/de-DE/components.json index cc1875afba2a..e7dd0cbca3ff 100644 --- a/locales/de-DE/components.json +++ b/locales/de-DE/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Zurück" }, + "MaxTokenSlider": { + "unlimited": "Unbegrenzt" + }, "ModelSelect": { "featureTag": { "custom": "Benutzerdefiniertes Modell, standardmäßig unterstützt es sowohl Funktionsaufrufe als auch visuelle Erkennung. Bitte überprüfen Sie die Verfügbarkeit dieser Fähigkeiten basierend auf den tatsächlichen Gegebenheiten.", diff --git a/locales/de-DE/modelProvider.json b/locales/de-DE/modelProvider.json index a5c7d2d2db60..b2ab1569b0de 100644 --- a/locales/de-DE/modelProvider.json +++ b/locales/de-DE/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download specified Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Geben Sie die SenseNova Access Key ID ein", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Geben Sie den SenseNova Access Key Secret ein", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Geben Sie Ihre Access Key ID / Access Key Secret ein, um die Sitzung zu starten. Die Anwendung speichert Ihre Authentifizierungsinformationen nicht", - "title": "Verwenden Sie benutzerdefinierte SenseNova Authentifizierungsinformationen" - } - }, "wenxin": { "accessKey": { "desc": "Geben Sie den Access Key der Baidu Qianfan-Plattform ein", diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index bfdbca941c44..6dd2cf56d0e3 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit Next-Gen-Funktionen, herausragender Geschwindigkeit, nativer Werkzeuganwendung und multimodaler Generierung." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativen Toolaufrufen und multimodaler Generierung." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 ist Googles neuestes experimentelles multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B ist ein von NVIDIA maßgeschneidertes großes Sprachmodell, das darauf abzielt, die Hilfsfähigkeit der von LLM generierten Antworten auf Benutzeranfragen zu verbessern. Dieses Modell hat in Benchmark-Tests wie Arena Hard, AlpacaEval 2 LC und GPT-4-Turbo MT-Bench hervorragende Leistungen gezeigt und belegt bis zum 1. Oktober 2024 den ersten Platz in allen drei automatischen Ausrichtungsbenchmarks. Das Modell wurde mit RLHF (insbesondere REINFORCE), Llama-3.1-Nemotron-70B-Reward und HelpSteer2-Preference-Prompts auf dem Llama-3.1-70B-Instruct-Modell trainiert." }, + "o1": { + "description": "Konzentriert sich auf fortgeschrittene Inferenz und die Lösung komplexer Probleme, einschließlich mathematischer und wissenschaftlicher Aufgaben. Besonders geeignet für Anwendungen, die ein tiefes Verständnis des Kontexts und die Abwicklung von Arbeitsabläufen erfordern." + }, + "o1-2024-12-17": { + "description": "o1 ist OpenAIs neues Inferenzmodell, das Text- und Bildinput unterstützt und Textausgaben erzeugt. Es eignet sich für komplexe Aufgaben, die umfassendes Allgemeinwissen erfordern. Dieses Modell hat einen Kontext von 200K und einen Wissensstand bis Oktober 2023." + }, "o1-mini": { "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4." }, + "openai/o1": { + "description": "o1 ist OpenAIs neues Inferenzmodell, das Text- und Bildinput unterstützt und Textausgaben erzeugt. Es eignet sich für komplexe Aufgaben, die umfassendes Allgemeinwissen erfordern. Dieses Modell hat einen Kontext von 200K und einen Wissensstand bis Oktober 2023." + }, "openai/o1-mini": { "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023." }, diff --git a/locales/de-DE/setting.json b/locales/de-DE/setting.json index d8c322aae7e6..9ce0ab6b16ff 100644 --- a/locales/de-DE/setting.json +++ b/locales/de-DE/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Benutzerdefinierte Modellkonfiguration", "tokens": { - "title": "Maximale Token-Anzahl", - "unlimited": "unbegrenzt" + "title": "Maximale Token-Anzahl" }, "vision": { "extra": "Diese Konfiguration aktiviert nur die Bild-Upload-Einstellungen innerhalb der Anwendung. Ob die Erkennung unterstützt wird, hängt vollständig vom Modell selbst ab. Bitte teste die Verwendbarkeit der visuellen Erkennungsfähigkeit des Modells selbst.", diff --git a/locales/en-US/components.json b/locales/en-US/components.json index 0771cdf52ca7..9b7334f94b54 100644 --- a/locales/en-US/components.json +++ b/locales/en-US/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Back" }, + "MaxTokenSlider": { + "unlimited": "Unlimited" + }, "ModelSelect": { "featureTag": { "custom": "Custom model, by default, supports both function call and visual recognition. Please verify the availability of the above capabilities based on actual situations.", diff --git a/locales/en-US/modelProvider.json b/locales/en-US/modelProvider.json index 3b6a69b944bf..0cbd936f8e3a 100644 --- a/locales/en-US/modelProvider.json +++ b/locales/en-US/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download specified Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Enter your SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Enter your SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Input your Access Key ID / Access Key Secret to start the session. The application will not record your authentication configuration.", - "title": "Use Custom SenseNova Authentication Information" - } - }, "wenxin": { "accessKey": { "desc": "Enter the Access Key from the Baidu Qianfan platform", diff --git a/locales/en-US/models.json b/locales/en-US/models.json index d28e30f3bd2b..0782114554e8 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool integration, and multimodal generation." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 is Google's latest experimental multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it suitable for efficient scaling across various tasks." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B is a large language model customized by NVIDIA, designed to enhance the helpfulness of LLM-generated responses to user queries. The model has excelled in benchmark tests such as Arena Hard, AlpacaEval 2 LC, and GPT-4-Turbo MT-Bench, ranking first in all three automatic alignment benchmarks as of October 1, 2024. The model is trained using RLHF (specifically REINFORCE), Llama-3.1-Nemotron-70B-Reward, and HelpSteer2-Preference prompts based on the Llama-3.1-70B-Instruct model." }, + "o1": { + "description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. It is particularly well-suited for applications that require deep contextual understanding and agent workflow." + }, + "o1-2024-12-17": { + "description": "O1 is OpenAI's new reasoning model that supports both image and text input and outputs text, suitable for complex tasks requiring extensive general knowledge. This model has a context length of 200K and a knowledge cutoff date of October 2023." + }, "o1-mini": { "description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini is the latest model released by OpenAI following GPT-4 Omni, supporting both text and image input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models and over 60% cheaper than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences." }, + "openai/o1": { + "description": "O1 is OpenAI's new reasoning model that supports both image and text input and outputs text, suitable for complex tasks requiring extensive general knowledge. This model has a context length of 200K and a knowledge cutoff date of October 2023." + }, "openai/o1-mini": { "description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023." }, diff --git a/locales/en-US/setting.json b/locales/en-US/setting.json index d5f8427c5b81..98540de3adee 100644 --- a/locales/en-US/setting.json +++ b/locales/en-US/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Custom Model Configuration", "tokens": { - "title": "Maximum Token Count", - "unlimited": "unlimited" + "title": "Maximum Token Count" }, "vision": { "extra": "This configuration will only enable image upload capabilities within the application. Whether recognition is supported depends entirely on the model itself; please test the model's visual recognition capabilities on your own.", diff --git a/locales/es-ES/components.json b/locales/es-ES/components.json index dfcc945efdd3..ebcc3d74a924 100644 --- a/locales/es-ES/components.json +++ b/locales/es-ES/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Regresar" }, + "MaxTokenSlider": { + "unlimited": "Sin límite" + }, "ModelSelect": { "featureTag": { "custom": "Modelo personalizado: admite llamadas de función y reconocimiento visual. Verifique la disponibilidad de estas capacidades según sea necesario.", diff --git a/locales/es-ES/modelProvider.json b/locales/es-ES/modelProvider.json index a6063cd7a421..fb6b3d73e808 100644 --- a/locales/es-ES/modelProvider.json +++ b/locales/es-ES/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download specified Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Introduce el ID de clave de acceso de SenseNova", - "placeholder": "ID de clave de acceso de SenseNova", - "title": "ID de clave de acceso" - }, - "sensenovaAccessKeySecret": { - "desc": "Introduce la clave secreta de acceso de SenseNova", - "placeholder": "Clave secreta de acceso de SenseNova", - "title": "Clave secreta de acceso" - }, - "unlock": { - "description": "Introduce tu ID de clave de acceso / clave secreta de acceso para comenzar la sesión. La aplicación no registrará tu configuración de autenticación", - "title": "Usar información de autenticación personalizada de SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "Introduce la Access Key de la plataforma Qianfan de Baidu", diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index b9e8788fa8ac..58d09b85a42c 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp es el último modelo experimental de inteligencia artificial multimodal de Google, que cuenta con características de próxima generación, velocidad superior, llamadas nativas a herramientas y generación multimodal." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp es el último modelo de IA multimodal experimental de Google, que cuenta con características de próxima generación, velocidad excepcional, llamadas a herramientas nativas y generación multimodal." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 es el modelo de IA multimodal experimental más reciente de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imagen y video, adecuado para una amplia gama de tareas de manera eficiente." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B es un modelo de lenguaje a gran escala personalizado por NVIDIA, diseñado para mejorar la utilidad de las respuestas generadas por LLM a las consultas de los usuarios. Este modelo ha destacado en pruebas de referencia como Arena Hard, AlpacaEval 2 LC y GPT-4-Turbo MT-Bench, ocupando el primer lugar en los tres benchmarks de alineación automática hasta el 1 de octubre de 2024. El modelo se entrena utilizando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward y HelpSteer2-Preference sobre la base del modelo Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Se centra en el razonamiento avanzado y la resolución de problemas complejos, incluidas tareas matemáticas y científicas. Es muy adecuado para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo de agentes." + }, + "o1-2024-12-17": { + "description": "o1 es el nuevo modelo de inferencia de OpenAI, que admite entradas de texto e imagen y produce texto como salida, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 200K y una fecha límite de conocimiento de octubre de 2023." + }, "o1-mini": { "description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini es el modelo más reciente de OpenAI, lanzado después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de tamaño pequeño, es mucho más económico que otros modelos de vanguardia recientes y más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio notable. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat." }, + "openai/o1": { + "description": "o1 es el nuevo modelo de inferencia de OpenAI, que admite entradas de texto e imagen y produce texto como salida, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 200K y una fecha límite de conocimiento de octubre de 2023." + }, "openai/o1-mini": { "description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023." }, diff --git a/locales/es-ES/setting.json b/locales/es-ES/setting.json index 547adebc5b16..5cfa5452bb99 100644 --- a/locales/es-ES/setting.json +++ b/locales/es-ES/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Configuración del modelo personalizado", "tokens": { - "title": "Número máximo de tokens", - "unlimited": "ilimitado" + "title": "Número máximo de tokens" }, "vision": { "extra": "Esta configuración solo habilitará la configuración de carga de imágenes en la aplicación; si se admite el reconocimiento depende completamente del modelo en sí. Por favor, prueba la disponibilidad de la capacidad de reconocimiento visual de este modelo.", diff --git a/locales/fa-IR/components.json b/locales/fa-IR/components.json index 5fb5f5aa2360..5f363085fdae 100644 --- a/locales/fa-IR/components.json +++ b/locales/fa-IR/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "بازگشت" }, + "MaxTokenSlider": { + "unlimited": "نامحدود" + }, "ModelSelect": { "featureTag": { "custom": "مدل سفارشی، تنظیمات پیش‌فرض از فراخوانی توابع و تشخیص بصری پشتیبانی می‌کند، لطفاً قابلیت‌های فوق را بر اساس شرایط واقعی بررسی کنید", diff --git a/locales/fa-IR/modelProvider.json b/locales/fa-IR/modelProvider.json index 0aa5746e9512..5dc0afc74777 100644 --- a/locales/fa-IR/modelProvider.json +++ b/locales/fa-IR/modelProvider.json @@ -131,22 +131,6 @@ "title": "دانلود مدل مشخص شده Ollama" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "کلید دسترسی SenseNova را وارد کنید", - "placeholder": "کلید دسترسی SenseNova", - "title": "کلید دسترسی" - }, - "sensenovaAccessKeySecret": { - "desc": "رمز کلید دسترسی SenseNova را وارد کنید", - "placeholder": "رمز کلید دسترسی SenseNova", - "title": "رمز کلید دسترسی" - }, - "unlock": { - "description": "کلید دسترسی و رمز کلید دسترسی خود را وارد کنید تا مکالمه را شروع کنید. این برنامه اطلاعات احراز هویت شما را ذخیره نمی‌کند.", - "title": "استفاده از اطلاعات احراز هویت سفارشی SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "کلید دسترسی Qianfan پلتفرم بایدو را وارد کنید", diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 8d7ad3517947..1e7d0b05c82c 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp یک مدل هوش مصنوعی چندمدلی آزمایشی از گوگل است که دارای ویژگی‌های نسل بعدی، سرعت فوق‌العاده، فراخوانی ابزارهای بومی و تولید چندمدلی است." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp جدیدترین مدل هوش مصنوعی چندرسانه‌ای آزمایشی Google است که ویژگی‌های نسل بعدی، سرعت فوق‌العاده، فراخوانی ابزارهای بومی و تولید چندرسانه‌ای را داراست." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 جدیدترین مدل AI چند وجهی تجربی Google است که دارای قابلیت پردازش سریع می‌باشد و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش مؤثر در چندین وظیفه مناسب است." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B یک مدل زبانی بزرگ سفارشی شده توسط NVIDIA است که به منظور افزایش کمک به پاسخ‌های تولید شده توسط LLM برای پرسش‌های کاربران طراحی شده است. این مدل در آزمون‌های معیار مانند Arena Hard، AlpacaEval 2 LC و GPT-4-Turbo MT-Bench عملکرد عالی داشته و تا تاریخ 1 اکتبر 2024 در تمامی سه آزمون خودکار هم‌راستایی در رتبه اول قرار دارد. این مدل با استفاده از RLHF (به ویژه REINFORCE)، Llama-3.1-Nemotron-70B-Reward و HelpSteer2-Preference در مدل Llama-3.1-70B-Instruct آموزش دیده است." }, + "o1": { + "description": "متمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که به درک عمیق زمینه و مدیریت جریان‌های کاری نیاز دارند." + }, + "o1-2024-12-17": { + "description": "o1 مدل استدلال جدید OpenAI است که ورودی‌های متنی و تصویری را پشتیبانی می‌کند و خروجی متنی تولید می‌کند و برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 200K زمینه و تاریخ قطع دانش در اکتبر 2023 است." + }, "o1-mini": { "description": "کوچکتر و سریعتر از o1-preview، با ۸۰٪ هزینه کمتر، و عملکرد خوب در تولید کد و عملیات با زمینه‌های کوچک." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است." }, + "openai/o1": { + "description": "o1 مدل استدلال جدید OpenAI است که ورودی‌های متنی و تصویری را پشتیبانی می‌کند و خروجی متنی تولید می‌کند و برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 200K زمینه و تاریخ قطع دانش در اکتبر 2023 است." + }, "openai/o1-mini": { "description": "o1-mini یک مدل استنتاج سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ می‌باشد." }, diff --git a/locales/fa-IR/setting.json b/locales/fa-IR/setting.json index 239c8d52d0af..6e232668d53b 100644 --- a/locales/fa-IR/setting.json +++ b/locales/fa-IR/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "پیکربندی مدل سفارشی", "tokens": { - "title": "حداکثر تعداد توکن‌ها", - "unlimited": "نامحدود" + "title": "حداکثر تعداد توکن‌ها" }, "vision": { "extra": "این پیکربندی تنها قابلیت آپلود تصویر در برنامه را فعال می‌کند. پشتیبانی از تشخیص تصویر کاملاً به خود مدل بستگی دارد، لطفاً قابلیت تشخیص تصویر مدل را به صورت مستقل تست کنید", diff --git a/locales/fr-FR/components.json b/locales/fr-FR/components.json index ceac463749c4..668dae2116ec 100644 --- a/locales/fr-FR/components.json +++ b/locales/fr-FR/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Retour" }, + "MaxTokenSlider": { + "unlimited": "Illimité" + }, "ModelSelect": { "featureTag": { "custom": "Modèle personnalisé par défaut prenant en charge à la fois les appels de fonction et la reconnaissance visuelle. Veuillez vérifier la disponibilité de ces capacités en fonction de vos besoins réels.", diff --git a/locales/fr-FR/modelProvider.json b/locales/fr-FR/modelProvider.json index ddae2ef19bbf..4628b03f64c1 100644 --- a/locales/fr-FR/modelProvider.json +++ b/locales/fr-FR/modelProvider.json @@ -131,22 +131,6 @@ "title": "Télécharger le modèle Ollama spécifié" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Entrez l'ID de clé d'accès SenseNova", - "placeholder": "ID de clé d'accès SenseNova", - "title": "ID de clé d'accès" - }, - "sensenovaAccessKeySecret": { - "desc": "Entrez le secret de clé d'accès SenseNova", - "placeholder": "Secret de clé d'accès SenseNova", - "title": "Secret de clé d'accès" - }, - "unlock": { - "description": "Entrez votre ID de clé d'accès / secret de clé d'accès pour commencer la session. L'application ne conservera pas vos configurations d'authentification", - "title": "Utiliser des informations d'authentification SenseNova personnalisées" - } - }, "wenxin": { "accessKey": { "desc": "Entrez la clé d'accès de la plateforme Qianfan de Baidu", diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index 43b9dfbdcad1..fcd38911fda1 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, avec des caractéristiques de nouvelle génération, une vitesse exceptionnelle, des appels d'outils natifs et une génération multimodale." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 est le dernier modèle d'IA multimodale expérimental de Google, offrant une capacité de traitement rapide, prenant en charge les entrées de texte, d'image et de vidéo, et permettant une extension efficace pour une variété de tâches." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B est un modèle de langage à grande échelle personnalisé par NVIDIA, conçu pour améliorer l'aide fournie par les réponses générées par LLM aux requêtes des utilisateurs. Ce modèle a excellé dans des tests de référence tels que Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant premier dans les trois tests d'alignement automatique au 1er octobre 2024. Le modèle utilise RLHF (en particulier REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference pour l'entraînement sur la base du modèle Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris les tâches mathématiques et scientifiques. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail d'agent." + }, + "o1-2024-12-17": { + "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, prenant en charge les entrées multimodales et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date limite de connaissances en octobre 2023." + }, "o1-mini": { "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat." }, + "openai/o1": { + "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, prenant en charge les entrées multimodales et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date limite de connaissances en octobre 2023." + }, "openai/o1-mini": { "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023." }, diff --git a/locales/fr-FR/setting.json b/locales/fr-FR/setting.json index d96727f99af4..7a26e2e4a1ad 100644 --- a/locales/fr-FR/setting.json +++ b/locales/fr-FR/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Configuration du modèle personnalisé", "tokens": { - "title": "Nombre maximal de jetons", - "unlimited": "illimité" + "title": "Nombre maximal de jetons" }, "vision": { "extra": "Cette configuration n'activera que la configuration de téléchargement d'images dans l'application. La prise en charge de la reconnaissance dépend entièrement du modèle lui-même, veuillez tester la disponibilité des capacités de reconnaissance visuelle de ce modèle.", diff --git a/locales/it-IT/components.json b/locales/it-IT/components.json index 41fca837586f..2276ea5f47f4 100644 --- a/locales/it-IT/components.json +++ b/locales/it-IT/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Indietro" }, + "MaxTokenSlider": { + "unlimited": "Illimitato" + }, "ModelSelect": { "featureTag": { "custom": "Modello personalizzato: di default supporta sia la chiamata di funzioni che il riconoscimento visivo. Verifica l'effettiva disponibilità di tali funzionalità.", diff --git a/locales/it-IT/modelProvider.json b/locales/it-IT/modelProvider.json index 0cf9b5bd45e1..a225b1c382ef 100644 --- a/locales/it-IT/modelProvider.json +++ b/locales/it-IT/modelProvider.json @@ -131,22 +131,6 @@ "title": "Scarica il modello Ollama specificato" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Inserisci l'ID chiave di accesso SenseNova", - "placeholder": "ID chiave di accesso SenseNova", - "title": "ID chiave di accesso" - }, - "sensenovaAccessKeySecret": { - "desc": "Inserisci il segreto della chiave di accesso SenseNova", - "placeholder": "Segreto della chiave di accesso SenseNova", - "title": "Segreto della chiave di accesso" - }, - "unlock": { - "description": "Inserisci il tuo ID chiave di accesso / segreto della chiave di accesso per iniziare la sessione. L'app non registrerà la tua configurazione di autenticazione", - "title": "Utilizza informazioni di autenticazione personalizzate di SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "Inserisci l'Access Key della piattaforma Qianfan di Baidu", diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index 43d5d9857bac..1d04ac93169a 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp è il nuovo modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità straordinaria, chiamate di strumenti native e generazione multimodale." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 è il modello AI multimodale sperimentale più recente di Google, dotato di capacità di elaborazione rapida, supporta input testuali, visivi e video, ed è adatto per un'ampia gamma di compiti con un'efficiente scalabilità." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate dai LLM alle domande degli utenti. Questo modello ha ottenuto risultati eccellenti nei benchmark come Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di allineamento automatico fino al 1 ottobre 2024. Il modello è stato addestrato utilizzando RLHF (in particolare REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference come suggerimenti, basandosi sul modello Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Focalizzato su inferenze avanzate e risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro agenti." + }, + "o1-2024-12-17": { + "description": "o1 è il nuovo modello di inferenza di OpenAI, che supporta input testuali e visivi e produce output testuali, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 200K e una data di scadenza della conoscenza di ottobre 2023." + }, "o1-mini": { "description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini è il modello più recente di OpenAI, lanciato dopo GPT-4 Omni, che supporta input visivi e testuali e produce output testuali. Come il loro modello di piccole dimensioni più avanzato, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un notevole rapporto qualità-prezzo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat." }, + "openai/o1": { + "description": "o1 è il nuovo modello di inferenza di OpenAI, che supporta input testuali e visivi e produce output testuali, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 200K e una data di scadenza della conoscenza di ottobre 2023." + }, "openai/o1-mini": { "description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023." }, diff --git a/locales/it-IT/setting.json b/locales/it-IT/setting.json index 6c5daee39cc9..97ae4ea80332 100644 --- a/locales/it-IT/setting.json +++ b/locales/it-IT/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Configurazione del modello personalizzato", "tokens": { - "title": "Numero massimo di token", - "unlimited": "illimitato" + "title": "Numero massimo di token" }, "vision": { "extra": "Questa configurazione attiverà solo la capacità di caricamento delle immagini nell'app, se il riconoscimento è supportato dipende interamente dal modello stesso, ti invitiamo a testare l'usabilità del riconoscimento visivo di questo modello.", diff --git a/locales/ja-JP/components.json b/locales/ja-JP/components.json index c00d36d3a6ab..87d1dbe7b76b 100644 --- a/locales/ja-JP/components.json +++ b/locales/ja-JP/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "戻る" }, + "MaxTokenSlider": { + "unlimited": "無制限" + }, "ModelSelect": { "featureTag": { "custom": "カスタムモデル、デフォルトでは関数呼び出しとビジョン認識の両方をサポートしています。上記機能の有効性を確認してください。", diff --git a/locales/ja-JP/modelProvider.json b/locales/ja-JP/modelProvider.json index 6c04830f8161..dfc773218fe7 100644 --- a/locales/ja-JP/modelProvider.json +++ b/locales/ja-JP/modelProvider.json @@ -131,22 +131,6 @@ "title": "指定されたOllamaモデルをダウンロード" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "SenseNova アクセスキー ID を入力してください", - "placeholder": "SenseNova アクセスキー ID", - "title": "アクセスキー ID" - }, - "sensenovaAccessKeySecret": { - "desc": "SenseNova アクセスキーシークレットを入力してください", - "placeholder": "SenseNova アクセスキーシークレット", - "title": "アクセスキーシークレット" - }, - "unlock": { - "description": "あなたのアクセスキー ID / アクセスキーシークレットを入力すると、セッションが開始されます。アプリはあなたの認証設定を記録しません", - "title": "カスタム SenseNova 認証情報を使用" - } - }, "wenxin": { "accessKey": { "desc": "百度千帆プラットフォームのAccess Keyを入力してください", diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 15a9814fb1d8..93390a59b51b 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp は、Google の最新の実験的なマルチモーダル AI モデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。" }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、そしてマルチモーダル生成を備えています。" + }, "gemini-exp-1114": { "description": "Gemini Exp 1114は、Googleの最新の実験的なマルチモーダルAIモデルで、迅速な処理能力を備え、テキスト、画像、動画の入力をサポートし、様々なタスクに効率的に対応できます。" }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70BはNVIDIAによってカスタマイズされた大規模言語モデルで、LLMが生成する応答がユーザーのクエリにどれだけ役立つかを向上させることを目的としています。このモデルはArena Hard、AlpacaEval 2 LC、GPT-4-Turbo MT-Benchなどのベンチマークテストで優れたパフォーマンスを示し、2024年10月1日現在、すべての自動整合ベンチマークテストで1位にランクされています。このモデルはRLHF(特にREINFORCE)、Llama-3.1-Nemotron-70B-Reward、HelpSteer2-Preferenceプロンプトを使用してLlama-3.1-70B-Instructモデルの基盤の上で訓練されています。" }, + "o1": { + "description": "高度な推論と複雑な問題の解決に焦点を当てており、数学や科学のタスクを含みます。深いコンテキスト理解とエージェントワークフローを必要とするアプリケーションに非常に適しています。" + }, + "o1-2024-12-17": { + "description": "o1はOpenAIの新しい推論モデルで、画像とテキストの入力をサポートし、テキストを出力します。広範な一般知識を必要とする複雑なタスクに適しています。このモデルは200Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" + }, "o1-mini": { "description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o miniはOpenAIがGPT-4 Omniの後に発表した最新モデルで、画像とテキストの入力をサポートし、テキストを出力します。彼らの最先端の小型モデルとして、最近の他の最前線モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、顕著なコストパフォーマンスを誇ります。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みでGPT-4よりも高い評価を得ています。" }, + "openai/o1": { + "description": "o1はOpenAIの新しい推論モデルで、画像とテキストの入力をサポートし、テキストを出力します。広範な一般知識を必要とする複雑なタスクに適しています。このモデルは200Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" + }, "openai/o1-mini": { "description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" }, diff --git a/locales/ja-JP/setting.json b/locales/ja-JP/setting.json index 7e888f0122a8..43c5adf18861 100644 --- a/locales/ja-JP/setting.json +++ b/locales/ja-JP/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "カスタムモデルの設定", "tokens": { - "title": "最大トークン数", - "unlimited": "無制限" + "title": "最大トークン数" }, "vision": { "extra": "この設定はアプリ内の画像アップロード機能のみを有効にします。認識のサポートはモデル自体に依存するため、モデルの視覚認識機能の有効性を自分でテストしてください。", diff --git a/locales/ko-KR/components.json b/locales/ko-KR/components.json index 85972765eaba..42c28e5bc177 100644 --- a/locales/ko-KR/components.json +++ b/locales/ko-KR/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "뒤로 가기" }, + "MaxTokenSlider": { + "unlimited": "무제한" + }, "ModelSelect": { "featureTag": { "custom": "사용자 정의 모델, 기본적으로 함수 호출 및 시각 인식을 모두 지원하며, 실제 기능을 확인하세요", diff --git a/locales/ko-KR/modelProvider.json b/locales/ko-KR/modelProvider.json index c75dd0cce967..860fa15bdfd0 100644 --- a/locales/ko-KR/modelProvider.json +++ b/locales/ko-KR/modelProvider.json @@ -131,22 +131,6 @@ "title": "지정된 Ollama 모델 다운로드" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "SenseNova Access Key ID를 입력하세요", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "SenseNova Access Key Secret를 입력하세요", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Access Key ID / Access Key Secret를 입력하면 대화를 시작할 수 있습니다. 애플리케이션은 인증 구성을 기록하지 않습니다.", - "title": "사용자 정의 SenseNova 인증 정보 사용" - } - }, "wenxin": { "accessKey": { "desc": "바이두 천범 플랫폼의 Access Key를 입력하세요", diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index f2d317a0896c..69dfd7616bbb 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모달 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모달 생성을 갖추고 있습니다." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114는 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며, 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B는 NVIDIA가 맞춤 제작한 대규모 언어 모델로, LLM이 생성한 응답이 사용자 쿼리에 얼마나 도움이 되는지를 향상시키기 위해 설계되었습니다. 이 모델은 Arena Hard, AlpacaEval 2 LC 및 GPT-4-Turbo MT-Bench와 같은 벤치마크 테스트에서 뛰어난 성능을 보였으며, 2024년 10월 1일 기준으로 모든 자동 정렬 벤치마크 테스트에서 1위를 차지했습니다. 이 모델은 RLHF(특히 REINFORCE), Llama-3.1-Nemotron-70B-Reward 및 HelpSteer2-Preference 프롬프트를 사용하여 Llama-3.1-70B-Instruct 모델을 기반으로 훈련되었습니다." }, + "o1": { + "description": "고급 추론 및 복잡한 문제 해결에 중점을 두며, 수학 및 과학 작업을 포함합니다. 깊이 있는 컨텍스트 이해와 에이전트 작업 흐름이 필요한 애플리케이션에 매우 적합합니다." + }, + "o1-2024-12-17": { + "description": "o1은 OpenAI의 새로운 추론 모델로, 이미지와 텍스트 입력을 지원하며 텍스트 출력을 제공합니다. 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 200K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." + }, "o1-mini": { "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 가장 진보된 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다." }, + "openai/o1": { + "description": "o1은 OpenAI의 새로운 추론 모델로, 이미지와 텍스트 입력을 지원하며 텍스트 출력을 제공합니다. 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 200K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." + }, "openai/o1-mini": { "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." }, diff --git a/locales/ko-KR/setting.json b/locales/ko-KR/setting.json index b8ec6e9f42b6..5425cd642af1 100644 --- a/locales/ko-KR/setting.json +++ b/locales/ko-KR/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "사용자 정의 모델 구성", "tokens": { - "title": "최대 토큰 수", - "unlimited": "제한 없는" + "title": "최대 토큰 수" }, "vision": { "extra": "이 설정은 애플리케이션 내에서 이미지 업로드 기능만 활성화합니다. 인식 지원 여부는 모델 자체에 따라 다르므로, 해당 모델의 시각 인식 가능성을 직접 테스트해 보시기 바랍니다.", diff --git a/locales/nl-NL/components.json b/locales/nl-NL/components.json index 9dc9b35aaa2c..cffd157f3fde 100644 --- a/locales/nl-NL/components.json +++ b/locales/nl-NL/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Terug" }, + "MaxTokenSlider": { + "unlimited": "Onbeperkt" + }, "ModelSelect": { "featureTag": { "custom": "Custom model, by default, supports both function call and visual recognition. Please verify the availability of the above capabilities based on actual needs.", diff --git a/locales/nl-NL/modelProvider.json b/locales/nl-NL/modelProvider.json index 1ac1b568cfde..8ed9933a477b 100644 --- a/locales/nl-NL/modelProvider.json +++ b/locales/nl-NL/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download het opgegeven Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Vul je SenseNova Access Key ID in", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Vul je SenseNova Access Key Secret in", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Voer je Access Key ID / Access Key Secret in om de sessie te starten. De applicatie registreert je authenticatie-instellingen niet", - "title": "Gebruik aangepaste SenseNova authenticatie-informatie" - } - }, "wenxin": { "accessKey": { "desc": "Vul de Access Key van het Baidu Qianfan-platform in", diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 4a43a03a7be5..bd70e7bdffb0 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met de volgende generatie functies, uitstekende snelheid, ingebouwde tool-aanroepen en multimodale generatie." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 is Google's nieuwste experimentele multimodale AI-model, met een snelle verwerkingscapaciteit, ondersteunt tekst-, beeld- en video-invoer, geschikt voor efficiënte schaling van diverse taken." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de hulp van LLM-gegenereerde reacties op gebruikersvragen te verbeteren. Dit model presteert uitstekend in benchmarktests zoals Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat per 1 oktober 2024 op de eerste plaats in alle drie de automatische afstemmingsbenchmarktests. Het model is getraind met RLHF (met name REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts op basis van het Llama-3.1-70B-Instruct model." }, + "o1": { + "description": "Gefocust op geavanceerd redeneren en het oplossen van complexe problemen, inclusief wiskunde en wetenschappelijke taken. Zeer geschikt voor toepassingen die diepgaand begrip van context en agentwerkstromen vereisen." + }, + "o1-2024-12-17": { + "description": "o1 is het nieuwe redeneer model van OpenAI, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 200K en een kennisafkapdatum van oktober 2023." + }, "o1-mini": { "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4." }, + "openai/o1": { + "description": "o1 is het nieuwe redeneer model van OpenAI, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 200K en een kennisafkapdatum van oktober 2023." + }, "openai/o1-mini": { "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023." }, diff --git a/locales/nl-NL/setting.json b/locales/nl-NL/setting.json index df6696707560..c44e43b37f36 100644 --- a/locales/nl-NL/setting.json +++ b/locales/nl-NL/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Aangepaste modelconfiguratie", "tokens": { - "title": "Maximaal tokenaantal", - "unlimited": "onbeperkt" + "title": "Maximaal tokenaantal" }, "vision": { "extra": "Deze configuratie zal alleen de mogelijkheid voor het uploaden van afbeeldingen in de applicatie inschakelen. Of herkenning wordt ondersteund, hangt volledig af van het model zelf. Test de beschikbaarheid van visuele herkenning van dit model zelf.", diff --git a/locales/pl-PL/components.json b/locales/pl-PL/components.json index bf41270f2a67..700366da029b 100644 --- a/locales/pl-PL/components.json +++ b/locales/pl-PL/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Wróć" }, + "MaxTokenSlider": { + "unlimited": "Bez ograniczeń" + }, "ModelSelect": { "featureTag": { "custom": "Niestandardowy model, domyślnie obsługujący zarówno wywołania funkcji, jak i rozpoznawanie wizualne. Proszę zweryfikować możliwość użycia tych funkcji w praktyce.", diff --git a/locales/pl-PL/modelProvider.json b/locales/pl-PL/modelProvider.json index 58a538f925c4..58bf86f19296 100644 --- a/locales/pl-PL/modelProvider.json +++ b/locales/pl-PL/modelProvider.json @@ -131,22 +131,6 @@ "title": "Pobierz określony model Ollama" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Wprowadź SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Wprowadź SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Wprowadź swój Access Key ID / Access Key Secret, aby rozpocząć sesję. Aplikacja nie zapisze twojej konfiguracji autoryzacji", - "title": "Użyj niestandardowych informacji autoryzacyjnych SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "Wprowadź Access Key z platformy Baidu Qianfan", diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index c1eb1205f95a..3dff164759b1 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który oferuje cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generowanie multimodalne." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, oferujący funkcje nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe oraz wideo, co umożliwia wydajne rozszerzanie go na różne zadania." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B to dostosowany przez NVIDIA duży model językowy, mający na celu zwiększenie użyteczności odpowiedzi generowanych przez LLM w odpowiedzi na zapytania użytkowników. Model ten osiągnął doskonałe wyniki w testach benchmarkowych, takich jak Arena Hard, AlpacaEval 2 LC i GPT-4-Turbo MT-Bench, zajmując pierwsze miejsce we wszystkich trzech automatycznych testach do 1 października 2024 roku. Model został przeszkolony przy użyciu RLHF (szczególnie REINFORCE), Llama-3.1-Nemotron-70B-Reward i HelpSteer2-Preference na bazie modelu Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Skupia się na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do aplikacji wymagających głębokiego zrozumienia kontekstu i zarządzania procesami." + }, + "o1-2024-12-17": { + "description": "o1 to nowy model wnioskowania OpenAI, który obsługuje wejścia tekstowe i graficzne oraz generuje tekst, idealny do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ma kontekst 200K i datę graniczną wiedzy do października 2023 roku." + }, "o1-mini": { "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4." }, + "openai/o1": { + "description": "o1 to nowy model wnioskowania OpenAI, który obsługuje wejścia tekstowe i graficzne oraz generuje tekst, idealny do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ma kontekst 200K i datę graniczną wiedzy do października 2023 roku." + }, "openai/o1-mini": { "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku." }, diff --git a/locales/pl-PL/setting.json b/locales/pl-PL/setting.json index bf94eda58aba..0a2e25083f95 100644 --- a/locales/pl-PL/setting.json +++ b/locales/pl-PL/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Konfiguracja niestandardowego modelu", "tokens": { - "title": "Maksymalna liczba tokenów", - "unlimited": "Nieograniczony" + "title": "Maksymalna liczba tokenów" }, "vision": { "extra": "Ta konfiguracja włączy jedynie możliwość przesyłania obrazów w aplikacji, a to, czy rozpoznawanie będzie wspierane, zależy całkowicie od samego modelu. Proszę samodzielnie przetestować dostępność rozpoznawania wizualnego w tym modelu.", diff --git a/locales/pt-BR/components.json b/locales/pt-BR/components.json index aa7a90878f81..53f87d52c3ab 100644 --- a/locales/pt-BR/components.json +++ b/locales/pt-BR/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Voltar" }, + "MaxTokenSlider": { + "unlimited": "Ilimitado" + }, "ModelSelect": { "featureTag": { "custom": "Modelo personalizado, por padrão, suporta chamadas de função e reconhecimento visual. Por favor, verifique a disponibilidade dessas capacidades de acordo com a situação real.", diff --git a/locales/pt-BR/modelProvider.json b/locales/pt-BR/modelProvider.json index 3b2f70b2ced1..de62bc6036c7 100644 --- a/locales/pt-BR/modelProvider.json +++ b/locales/pt-BR/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download specified Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Insira o SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Insira o SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Digite seu Access Key ID / Access Key Secret para iniciar a sessão. O aplicativo não registrará suas configurações de autenticação", - "title": "Usar informações de autenticação personalizadas do SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "Insira a Access Key da plataforma Qianfan do Baidu", diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 0147f7e5a6bd..5c1d72b355ca 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "O Gemini 2.0 Flash Exp é o mais recente modelo de IA multiodal experimental do Google, com recursos de próxima geração, velocidade extraordinária, chamadas nativas de ferramentas e geração multimodal." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp é o mais recente modelo de IA multimodal experimental do Google, com recursos de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal." + }, "gemini-exp-1114": { "description": "O Gemini Exp 1114 é o mais recente modelo experimental de IA multimodal da Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a expansão eficiente de várias tarefas." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B é um modelo de linguagem em larga escala personalizado pela NVIDIA, projetado para aumentar a utilidade das respostas geradas pelo LLM em relação às consultas dos usuários. Este modelo se destacou em benchmarks como Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o primeiro lugar em todos os três benchmarks de alinhamento automático até 1º de outubro de 2024. O modelo foi treinado usando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference prompts, com base no modelo Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho." + }, + "o1-2024-12-17": { + "description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto como saída, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e uma data limite de conhecimento em outubro de 2023." + }, "o1-mini": { "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat." }, + "openai/o1": { + "description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto como saída, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e uma data limite de conhecimento em outubro de 2023." + }, "openai/o1-mini": { "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023." }, diff --git a/locales/pt-BR/setting.json b/locales/pt-BR/setting.json index b3510be04cfb..8a18207517a4 100644 --- a/locales/pt-BR/setting.json +++ b/locales/pt-BR/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Configuração de Modelo Personalizado", "tokens": { - "title": "Número Máximo de Tokens", - "unlimited": "ilimitado" + "title": "Número Máximo de Tokens" }, "vision": { "extra": "Esta configuração ativará apenas a configuração de upload de imagens dentro do aplicativo; a capacidade de reconhecimento depende totalmente do modelo em si. Por favor, teste a disponibilidade da capacidade de reconhecimento visual desse modelo.", diff --git a/locales/ru-RU/components.json b/locales/ru-RU/components.json index 36f335275e80..fc522a24a2fb 100644 --- a/locales/ru-RU/components.json +++ b/locales/ru-RU/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Назад" }, + "MaxTokenSlider": { + "unlimited": "Без ограничений" + }, "ModelSelect": { "featureTag": { "custom": "Пользовательская модель по умолчанию поддерживает как вызов функций, так и распознавание изображений. Пожалуйста, проверьте доступность указанных возможностей в вашем случае", diff --git a/locales/ru-RU/modelProvider.json b/locales/ru-RU/modelProvider.json index e8b6e963cf00..60b7ab31cb90 100644 --- a/locales/ru-RU/modelProvider.json +++ b/locales/ru-RU/modelProvider.json @@ -131,22 +131,6 @@ "title": "Download specified Ollama model" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Введите SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Введите SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Введите ваш Access Key ID / Access Key Secret, чтобы начать сессию. Приложение не будет записывать ваши настройки аутентификации", - "title": "Используйте пользовательскую аутентификацию SenseNova" - } - }, "wenxin": { "accessKey": { "desc": "Введите Access Key платформы Baidu Qianfan", diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 16190588131a..0165ace335e0 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp — это новейшая экспериментальная мультимодальная AI-модель от Google, обладающая функциями следующего поколения, выдающейся скоростью, нативными инструментами и мультимодальной генерацией." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI-модель от Google, обладающая следующими поколениями функций, выдающейся скоростью, нативными вызовами инструментов и многомодальной генерацией." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 — это новейшая экспериментальная многомодальная ИИ модель от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, изображенческие и видеовходы, что позволяет эффективно расширять применение для различных задач." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B — это крупная языковая модель, созданная NVIDIA, предназначенная для повышения полезности ответов, генерируемых LLM, на запросы пользователей. Эта модель показала отличные результаты в таких бенчмарках, как Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, и на 1 октября 2024 года занимает первое место во всех трех автоматических тестах на согласование. Модель обучалась с использованием RLHF (в частности, REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference на основе модели Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Сосредоточена на высокоуровневом выводе и решении сложных задач, включая математические и научные задачи. Идеально подходит для приложений, требующих глубокого понимания контекста и управления рабочими процессами." + }, + "o1-2024-12-17": { + "description": "o1 — это новая модель вывода от OpenAI, поддерживающая ввод изображений и текста с выводом текста, предназначенная для сложных задач, требующих обширных общих знаний. Эта модель имеет контекст 200K и срок знания до октября 2023 года." + }, "o1-mini": { "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4." }, + "openai/o1": { + "description": "o1 — это новая модель вывода от OpenAI, поддерживающая ввод изображений и текста с выводом текста, предназначенная для сложных задач, требующих обширных общих знаний. Эта модель имеет контекст 200K и срок знания до октября 2023 года." + }, "openai/o1-mini": { "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года." }, diff --git a/locales/ru-RU/setting.json b/locales/ru-RU/setting.json index b2823f668595..9d92f97bc079 100644 --- a/locales/ru-RU/setting.json +++ b/locales/ru-RU/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Настройка пользовательской модели", "tokens": { - "title": "Максимальное количество токенов", - "unlimited": "неограниченный" + "title": "Максимальное количество токенов" }, "vision": { "extra": "Эта конфигурация только активирует возможность загрузки изображений в приложении, поддержка распознавания полностью зависит от самой модели, пожалуйста, протестируйте доступность визуального распознавания этой модели самостоятельно", diff --git a/locales/tr-TR/components.json b/locales/tr-TR/components.json index c0e583164906..0ad79d37cc9a 100644 --- a/locales/tr-TR/components.json +++ b/locales/tr-TR/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Geri dön" }, + "MaxTokenSlider": { + "unlimited": "Sınırsız" + }, "ModelSelect": { "featureTag": { "custom": "Özel model, varsayılan olarak hem fonksiyon çağrısını hem de görüntü tanımayı destekler, yukarıdaki yeteneklerin kullanılabilirliğini doğrulamak için lütfen gerçek durumu kontrol edin", diff --git a/locales/tr-TR/modelProvider.json b/locales/tr-TR/modelProvider.json index 2efb5b416f91..e8b78d143ca3 100644 --- a/locales/tr-TR/modelProvider.json +++ b/locales/tr-TR/modelProvider.json @@ -131,22 +131,6 @@ "title": "下载指定的 Ollama 模型" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "SenseNova Erişim Anahtar Kimliği girin", - "placeholder": "SenseNova Erişim Anahtar Kimliği", - "title": "Erişim Anahtar Kimliği" - }, - "sensenovaAccessKeySecret": { - "desc": "SenseNova Erişim Anahtar Gizli Anahtarını girin", - "placeholder": "SenseNova Erişim Anahtar Gizli Anahtarı", - "title": "Erişim Anahtar Gizli Anahtarı" - }, - "unlock": { - "description": "Oturuma başlamak için Erişim Anahtar Kimliğinizi / Erişim Anahtar Gizli Anahtarınızı girin. Uygulama kimlik doğrulama yapılandırmanızı kaydetmeyecek", - "title": "Özel SenseNova kimlik doğrulama bilgilerini kullan" - } - }, "wenxin": { "accessKey": { "desc": "Baidu Qianfan platform için Access Key girin", diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 1131c6339a17..fddbc868d5e4 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp, Google'ın en yeni deneysel çok modlu yapay zeka modelidir. Gelecek nesil özellikleri, olağanüstü hızı, yerel araç çağrısı ve çok modlu üretim ile donatılmıştır." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, üstün hıza, yerel araç çağrısına ve çok modlu üretime sahiptir." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114, Google'ın en son deneysel çok modlu AI modeli olup, hızlı işleme yeteneğine sahip, metin, görüntü ve video girişlerini desteklemekte ve çeşitli görevlerde verimli bir şekilde ölçeklenmektedir." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş büyük bir dil modelidir ve LLM tarafından üretilen yanıtların kullanıcı sorgularına yardımcı olma düzeyini artırmayı amaçlamaktadır. Bu model, Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench gibi standart testlerde mükemmel performans sergilemiştir ve 1 Ekim 2024 itibarıyla tüm üç otomatik hizalama testinde birinci sıradadır. Model, Llama-3.1-70B-Instruct modelinin temelinde RLHF (özellikle REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference ipuçları kullanılarak eğitilmiştir." }, + "o1": { + "description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur." + }, + "o1-2024-12-17": { + "description": "o1, OpenAI'nin yeni çıkarım modelidir, metin ve görsel girişi destekler ve metin çıktısı verir, geniş genel bilgi gerektiren karmaşık görevler için uygundur. Bu model, 200K bağlam ve 2023 Ekim bilgi kesim tarihi ile donatılmıştır." + }, "o1-mini": { "description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra sunduğu en son modeldir; görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde bir sıralamaya sahiptir." }, + "openai/o1": { + "description": "o1, OpenAI'nin yeni çıkarım modelidir, metin ve görsel girişi destekler ve metin çıktısı verir, geniş genel bilgi gerektiren karmaşık görevler için uygundur. Bu model, 200K bağlam ve 2023 Ekim bilgi kesim tarihi ile donatılmıştır." + }, "openai/o1-mini": { "description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır." }, diff --git a/locales/tr-TR/setting.json b/locales/tr-TR/setting.json index 6cb01ce9389e..34fde2a7f150 100644 --- a/locales/tr-TR/setting.json +++ b/locales/tr-TR/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Özel Model Yapılandırması", "tokens": { - "title": "Maksimum token sayısı", - "unlimited": "Sınırsız" + "title": "Maksimum token sayısı" }, "vision": { "extra": "Bu yapılandırma yalnızca uygulamadaki resim yükleme yapılandırmasını açacaktır; tanıma desteği tamamen modele bağlıdır, lütfen bu modelin görsel tanıma yeteneğini kendiniz test edin.", diff --git a/locales/vi-VN/components.json b/locales/vi-VN/components.json index 4137402aecf4..221493394473 100644 --- a/locales/vi-VN/components.json +++ b/locales/vi-VN/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "Quay lại" }, + "MaxTokenSlider": { + "unlimited": "Không giới hạn" + }, "ModelSelect": { "featureTag": { "custom": "Mô hình tùy chỉnh, mặc định hỗ trợ cả cuộc gọi hàm và nhận diện hình ảnh, vui lòng xác minh khả năng sử dụng của chúng theo tình hình cụ thể", diff --git a/locales/vi-VN/modelProvider.json b/locales/vi-VN/modelProvider.json index f899b3461539..e1df86d6f43d 100644 --- a/locales/vi-VN/modelProvider.json +++ b/locales/vi-VN/modelProvider.json @@ -131,22 +131,6 @@ "title": "Tải xuống mô hình Ollama đã chỉ định" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "Nhập SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "Nhập SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "Nhập Access Key ID / Access Key Secret của bạn để bắt đầu phiên. Ứng dụng sẽ không ghi lại cấu hình xác thực của bạn", - "title": "Sử dụng thông tin xác thực SenseNova tùy chỉnh" - } - }, "wenxin": { "accessKey": { "desc": "Nhập Access Key từ nền tảng Qianfan của Baidu", diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 6fe1d1f5048c..e3c136e3c9ca 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có các tính năng thế hệ tiếp theo, tốc độ vượt trội, khả năng gọi công cụ nguyên bản và tạo ra đa phương thức." }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, với các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và tạo ra đa phương thức." + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp với việc mở rộng hiệu quả cho nhiều nhiệm vụ." }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B là một mô hình ngôn ngữ quy mô lớn tùy chỉnh bởi NVIDIA, nhằm nâng cao mức độ hỗ trợ của phản hồi do LLM tạo ra đối với các truy vấn của người dùng. Mô hình này đã thể hiện xuất sắc trong các bài kiểm tra chuẩn như Arena Hard, AlpacaEval 2 LC và GPT-4-Turbo MT-Bench, đứng đầu trong cả ba bài kiểm tra tự động cho đến ngày 1 tháng 10 năm 2024. Mô hình sử dụng RLHF (đặc biệt là REINFORCE), Llama-3.1-Nemotron-70B-Reward và HelpSteer2-Preference để đào tạo trên cơ sở mô hình Llama-3.1-70B-Instruct." }, + "o1": { + "description": "Tập trung vào suy diễn nâng cao và giải quyết các vấn đề phức tạp, bao gồm các nhiệm vụ toán học và khoa học. Rất phù hợp cho các ứng dụng cần hiểu biết sâu sắc về ngữ cảnh và quy trình làm việc đại diện." + }, + "o1-2024-12-17": { + "description": "o1 là mô hình suy diễn mới của OpenAI, hỗ trợ đầu vào hình ảnh và văn bản và xuất ra văn bản, phù hợp cho các nhiệm vụ phức tạp cần kiến thức chung rộng rãi. Mô hình này có ngữ cảnh 200K và thời điểm cắt đứt kiến thức vào tháng 10 năm 2023." + }, "o1-mini": { "description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023." }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini là mô hình mới nhất của OpenAI, được phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và văn bản, và đầu ra văn bản. Là mô hình nhỏ tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng đầu về sở thích trò chuyện so với GPT-4." }, + "openai/o1": { + "description": "o1 là mô hình suy diễn mới của OpenAI, hỗ trợ đầu vào hình ảnh và văn bản và xuất ra văn bản, phù hợp cho các nhiệm vụ phức tạp cần kiến thức chung rộng rãi. Mô hình này có ngữ cảnh 200K và thời điểm cắt đứt kiến thức vào tháng 10 năm 2023." + }, "openai/o1-mini": { "description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023." }, diff --git a/locales/vi-VN/setting.json b/locales/vi-VN/setting.json index 868f347a0867..2d7cbbd24a24 100644 --- a/locales/vi-VN/setting.json +++ b/locales/vi-VN/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "Cấu hình mô hình tùy chỉnh", "tokens": { - "title": "Số lượng token tối đa", - "unlimited": "vô hạn" + "title": "Số lượng token tối đa" }, "vision": { "extra": "Cấu hình này chỉ mở khả năng tải lên hình ảnh trong ứng dụng, việc hỗ trợ nhận diện hoàn toàn phụ thuộc vào chính mô hình, vui lòng tự kiểm tra khả năng nhận diện hình ảnh của mô hình đó.", diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json index 5c276d43ae88..67e1795a7cae 100644 --- a/locales/zh-CN/common.json +++ b/locales/zh-CN/common.json @@ -31,7 +31,7 @@ "batchDelete": "批量删除", "blog": "产品博客", "branching": "创建子话题", - "branchingDisable": "「子话题」功能仅服务端版本可用,如需该功能,请切换到服务端部署模式或使用 LobeChat Cloud", + "branchingDisable": "「子话题」功能在当前模式下不可用,如需该功能,请切换到 Postgres/Pglite DB 模式或使用 LobeChat Cloud", "cancel": "取消", "changelog": "更新日志", "clientDB": { diff --git a/locales/zh-CN/components.json b/locales/zh-CN/components.json index b6de0f933784..2728ca27cd34 100644 --- a/locales/zh-CN/components.json +++ b/locales/zh-CN/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "返回" }, + "MaxTokenSlider": { + "unlimited": "无限制" + }, "ModelSelect": { "featureTag": { "custom": "自定义模型,默认设定同时支持函数调用与视觉识别,请根据实际情况验证上述能力的可用性", diff --git a/locales/zh-CN/modelProvider.json b/locales/zh-CN/modelProvider.json index d205de220f5f..e40e224dc835 100644 --- a/locales/zh-CN/modelProvider.json +++ b/locales/zh-CN/modelProvider.json @@ -131,22 +131,6 @@ "title": "下载指定的 Ollama 模型" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "填入 SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "填入 SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "输入你的 Access Key ID / Access Key Secret 即可开始会话。应用不会记录你的鉴权配置", - "title": "使用自定义 SenseNova 鉴权信息" - } - }, "wenxin": { "accessKey": { "desc": "填入百度千帆平台的 Access Key", diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index 3c4be7d085e5..af1c9eaf2a15 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp 是 Google 最新的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。" }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp 是 Google 最新的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。" + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 是 Google 的实验性多模态AI模型,对输出质量有一定改进。" }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型语言模型,旨在提高 LLM 生成的响应对用户查询的帮助程度。该模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基准测试中表现出色,截至 2024 年 10 月 1 日,在所有三个自动对齐基准测试中排名第一。该模型使用 RLHF(特别是 REINFORCE)、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基础上进行训练" }, + "o1": { + "description": "专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深入上下文理解和代理工作流程的应用程序。" + }, + "o1-2024-12-17": { + "description": "o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。" + }, "o1-mini": { "description": "比 o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。" }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。" }, + "openai/o1": { + "description": "o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。" + }, "openai/o1-mini": { "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。" }, diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index 581aba4cde20..dc0700acf5c8 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -21,7 +21,7 @@ "description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。" }, "deepseek": { - "description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力,并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。" + "description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。" }, "fireworksai": { "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。" diff --git a/locales/zh-CN/setting.json b/locales/zh-CN/setting.json index 8d07a4ceb118..ac69caac8a4c 100644 --- a/locales/zh-CN/setting.json +++ b/locales/zh-CN/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "自定义模型配置", "tokens": { - "title": "最大 token 数", - "unlimited": "无限制" + "title": "最大 token 数" }, "vision": { "extra": "此配置将仅开启应用中的图片上传配置,是否支持识别完全取决于模型本身,请自行测试该模型的视觉识别能力可用性", diff --git a/locales/zh-TW/components.json b/locales/zh-TW/components.json index 92d4e0805475..ef7a0d63c1ba 100644 --- a/locales/zh-TW/components.json +++ b/locales/zh-TW/components.json @@ -68,6 +68,9 @@ "GoBack": { "back": "返回" }, + "MaxTokenSlider": { + "unlimited": "無限制" + }, "ModelSelect": { "featureTag": { "custom": "自訂模型,預設支援函式呼叫與視覺辨識,請根據實際情況驗證上述能力的可用性", diff --git a/locales/zh-TW/modelProvider.json b/locales/zh-TW/modelProvider.json index 6afea77a200e..f78a6cc5d16d 100644 --- a/locales/zh-TW/modelProvider.json +++ b/locales/zh-TW/modelProvider.json @@ -131,22 +131,6 @@ "title": "下載指定的 Ollama 模型" } }, - "sensenova": { - "sensenovaAccessKeyID": { - "desc": "填入 SenseNova Access Key ID", - "placeholder": "SenseNova Access Key ID", - "title": "Access Key ID" - }, - "sensenovaAccessKeySecret": { - "desc": "填入 SenseNova Access Key Secret", - "placeholder": "SenseNova Access Key Secret", - "title": "Access Key Secret" - }, - "unlock": { - "description": "輸入你的 Access Key ID / Access Key Secret 即可開始會話。應用不會記錄你的鑑權配置", - "title": "使用自訂的 SenseNova 鑑權資訊" - } - }, "wenxin": { "accessKey": { "desc": "填入百度千帆平台的 Access Key", diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index d124c852073b..8801bcea9a2e 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -602,6 +602,9 @@ "gemini-2.0-flash-exp": { "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。" }, + "gemini-2.0-flash-thinking-exp-1219": { + "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。" + }, "gemini-exp-1114": { "description": "Gemini Exp 1114 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、影像和影片輸入,適用於多種任務的高效擴展。" }, @@ -1094,6 +1097,12 @@ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": { "description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的回應對用戶查詢的幫助程度。該模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基準測試中表現出色,截至 2024 年 10 月 1 日,在所有三個自動對齊基準測試中排名第一。該模型使用 RLHF(特別是 REINFORCE)、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基礎上進行訓練" }, + "o1": { + "description": "專注於高級推理和解決複雜問題,包括數學和科學任務。非常適合需要深入上下文理解和代理工作流程的應用程序。" + }, + "o1-2024-12-17": { + "description": "o1是OpenAI新的推理模型,支持圖文輸入並輸出文本,適用於需要廣泛通用知識的複雜任務。該模型具有200K上下文和2023年10月的知識截止日期。" + }, "o1-mini": { "description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。" }, @@ -1121,6 +1130,9 @@ "openai/gpt-4o-mini": { "description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型,支持圖文輸入並輸出文本。作為他們最先進的小型模型,它比其他近期的前沿模型便宜很多,並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能,同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分,目前在聊天偏好上排名高於GPT-4。" }, + "openai/o1": { + "description": "o1是OpenAI新的推理模型,支持圖文輸入並輸出文本,適用於需要廣泛通用知識的複雜任務。該模型具有200K上下文和2023年10月的知識截止日期。" + }, "openai/o1-mini": { "description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。" }, diff --git a/locales/zh-TW/setting.json b/locales/zh-TW/setting.json index cd09a1b15503..21e35c85a6f5 100644 --- a/locales/zh-TW/setting.json +++ b/locales/zh-TW/setting.json @@ -84,8 +84,7 @@ }, "modalTitle": "自定義模型配置", "tokens": { - "title": "最大 token 數", - "unlimited": "無限制" + "title": "最大 token 數" }, "vision": { "extra": "此配置將僅開啟應用中的圖片上傳配置,是否支持識別完全取決於模型本身,請自行測試該模型的視覺識別能力可用性", diff --git a/package.json b/package.json index 751074c54d40..f929d77dad89 100644 --- a/package.json +++ b/package.json @@ -129,7 +129,7 @@ "@lobehub/chat-plugins-gateway": "^1.9.0", "@lobehub/icons": "^1.56.0", "@lobehub/tts": "^1.25.1", - "@lobehub/ui": "^1.153.13", + "@lobehub/ui": "^1.155.7", "@neondatabase/serverless": "^0.10.1", "@next/third-parties": "^15.0.0", "@react-spring/web": "^9.7.5", @@ -243,7 +243,7 @@ "@commitlint/cli": "^19.5.0", "@edge-runtime/vm": "^5.0.0", "@huggingface/tasks": "^0.12.22", - "@lobehub/i18n-cli": "^1.20.0", + "@lobehub/i18n-cli": "^1.20.3", "@lobehub/lint": "^1.24.4", "@lobehub/seo-cli": "^1.4.2", "@next/bundle-analyzer": "^15.0.0",