
آرسی قصد دارد با مدلهای جدید ترینیتی که تحت مجوز آپاچی 2.0 منتشر میشوند، هوش مصنوعی متنباز ایالات متحده را راهاندازی مجدد کند.
در طول بخش زیادی از سال ۲۰۲۵، مرزهای مدلهای زبانی متنباز با وزنهای قابل تنظیم، نه در سیلیکون ولی یا نیویورک، بلکه در پکن و هانگژو تعریف شده است. آزمایشگاههای تحقیقاتی چینی از جمله Qwen متعلق به Alibaba، DeepSeek، Moonshot و Baidu به سرعت در توسعه مدلهای بزرگمقیاس و متنباز Mixture-of-Experts (MoE) پیشتاز بودهاند - اغلب با مجوزهای آزاد و عملکرد برجسته در بنچمارکها. \n در حالی که OpenAI نیز در تابستان امسال مدل زبانی بزرگ و چندمنظوره متنباز خود - gpt-oss-20B و 120B - را ارائه کرد، پذیرش آن به دلیل وجود جایگزینهای مشابه یا بهتر، کند شده است. اکنون، یک شرکت کوچک آمریکایی در حال واکنش نشان دادن است. \n امروز، Arcee AI از انتشار Trinity Mini و Trinity Nano Preview، دو مدل اول از خانواده جدید "Trinity" خود - یک مجموعه مدل MoE با وزنهای قابل تنظیم که به طور کامل در ایالات متحده آموزش داده شده است - خبر داد. کاربران میتوانند مدل اول را مستقیماً در قالب یک چتبات در وبسایت جدید Acree به آدرس chat.arcee.ai امتحان کنند و توسعهدهندگان میتوانند کد هر دو مدل را از Hugging Face دانلود کرده و خودشان اجرا کنند، و همچنین آنها را به دلخواه خود تغییر دهند/تنظیم دقیق کنند - همه به صورت رایگان تحت مجوز Apache 2.0 که برای استفاده تجاری مناسب است. \n در حالی که این مدلها در مقایسه با بزرگترین مدلهای پیشرو کوچک هستند، انتشار آنها نشاندهنده تلاش کمیاب یک استارتاپ آمریکایی برای ساخت مدلهای متنباز با وزنهای قابل تنظیم در مقیاس بزرگ - آموزش داده شده از ابتدا، بر روی زیرساخت آمریکایی، با استفاده از خط لوله دادهای که توسط ایالات متحده تهیه شده است - است. \n "من ترکیبی از غرور شدید نسبت به تیمم و خستگی مفرط را تجربه میکنم، بنابراین..."