در طول بخش زیادی از سال ۲۰۲۵، مرزهای مدل‌های زبانی متن‌باز با وزن‌های قابل تنظیم، نه در سیلیکون ولی یا نیویورک، بلکه در پکن و هانگژو تعریف شده است. آزمایشگاه‌های تحقیقاتی چینی از جمله Qwen متعلق به Alibaba، DeepSeek، Moonshot و Baidu به سرعت در توسعه مدل‌های بزرگ‌مقیاس و متن‌باز Mixture-of-Experts (MoE) پیشتاز بوده‌اند - اغلب با مجوزهای آزاد و عملکرد برجسته در بنچمارک‌ها. \n در حالی که OpenAI نیز در تابستان امسال مدل زبانی بزرگ و چندمنظوره متن‌باز خود - gpt-oss-20B و 120B - را ارائه کرد، پذیرش آن به دلیل وجود جایگزین‌های مشابه یا بهتر، کند شده است. اکنون، یک شرکت کوچک آمریکایی در حال واکنش نشان دادن است. \n امروز، Arcee AI از انتشار Trinity Mini و Trinity Nano Preview، دو مدل اول از خانواده جدید "Trinity" خود - یک مجموعه مدل MoE با وزن‌های قابل تنظیم که به طور کامل در ایالات متحده آموزش داده شده است - خبر داد. کاربران می‌توانند مدل اول را مستقیماً در قالب یک چت‌بات در وب‌سایت جدید Acree به آدرس chat.arcee.ai امتحان کنند و توسعه‌دهندگان می‌توانند کد هر دو مدل را از Hugging Face دانلود کرده و خودشان اجرا کنند، و همچنین آن‌ها را به دلخواه خود تغییر دهند/تنظیم دقیق کنند - همه به صورت رایگان تحت مجوز Apache 2.0 که برای استفاده تجاری مناسب است. \n در حالی که این مدل‌ها در مقایسه با بزرگترین مدل‌های پیشرو کوچک هستند، انتشار آن‌ها نشان‌دهنده تلاش کمیاب یک استارتاپ آمریکایی برای ساخت مدل‌های متن‌باز با وزن‌های قابل تنظیم در مقیاس بزرگ - آموزش داده شده از ابتدا، بر روی زیرساخت آمریکایی، با استفاده از خط لوله داده‌ای که توسط ایالات متحده تهیه شده است - است. \n "من ترکیبی از غرور شدید نسبت به تیمم و خستگی مفرط را تجربه می‌کنم، بنابراین..."