می توانید ChatGPT را با 2 گیگابایت حافظه اجرا کنید! این “توپ فولادی کوچک” تولید داخل به OV های هواوی اجازه می دهد تا در تجربه هوش مصنوعی خود از گلوگاه عبور کنند.

در این موج هوش مصنوعی، Wall-Facing Intelligence یکی از معدود تولیدکنندگان مدل سر بزرگ در چین است که مدل All In end-to-side را انتخاب می کند.

از زمانی که Wallface Intelligence توپ فولادی کوچک با کارایی بالا 1.0 را در ماه فوریه منتشر کرد، در ماه‌های متوالی به‌طور مکرر ارتقا پیدا کرد، مدل منبع باز MiniCPM-Llama3-V 2.5 که بعداً راه‌اندازی شد، توسط تیم هوش مصنوعی استانفورد سرقت ادبی شد. قدرت

در ماه آوریل، Zeng Guoyang مدیر ارشد فناوری Wallface Intelligence نیز پیش‌بینی کرد که مدل‌های سطح GPT-3.5 می‌توانند ظرف یک یا دو سال روی دستگاه‌های تلفن همراه اجرا شوند.

خبر خوب این است که لازم نیست یک تا دو سال دیگر منتظر بمانید، زیرا MiniCPM 3.0 که امروز منتشر شد، به مجموعه پرچمی دست یافته است که اولین نسل از توپ های فولادی کوچک منتشر شد: اجازه دادن به مدل های سطح GPT-3.5 برای اجرا بر روی آن ها. دستگاه در سال جاری

تنها با 4B پارامتر، عملکرد MiniCPM 3.0 از عملکرد MiniCPM 3.0 فراتر می رود.

به بیان ساده، راه‌اندازی MiniCPM 3.0 به این معنی است که کاربران می‌توانند در آینده بدون تکیه بر پردازش ابری، سرویس‌های هوش مصنوعی محلی سریع، ایمن و با ویژگی‌ها را تجربه کنند و تجربه تعامل هوشمندانه‌تر و خصوصی‌تری داشته باشند.

با قضاوت بر اساس تست‌های معیار به اشتراک‌گذاشته‌شده توسط رسمی، MiniCPM 3.0 بهترین در تست‌های بنچمارک است که بر مهارت چینی مانند CMMLU و CEVAL تمرکز دارد و به راحتی مدل‌هایی مانند Phi-3.5 و GPT-3.5 را خرد می‌کند.

حتی در برابر مدل‌های بزرگ داخلی برجسته مانند 8B و 9B، عملکرد MiniCPM 3.0 همچنان برجسته است.

بیایید به طور خلاصه ویژگی های MiniCPM 3.0 را خلاصه کنیم:

  • متن نامحدود، عملکرد لیست از کیمی پیشی می گیرد
  • قوی ترین فراخوانی عملکرد در سمت انتهایی، با عملکرد قابل مقایسه با GPT-4o
  • مجموعه پلاگین سه تکه RAG فوق العاده قدرتمند، جستجوی چینی، زبان چینی و انگلیسی ابتدا

متن نامحدود، عملکرد فراتر از کیمی

کوچک اما قدرتمند، کوچک اما جامع، اینها شاید مناسب ترین صفت ها برای MiniCPM 3.0 باشند.

طول زمینه یک مشخصه مهم است که قابلیت‌های اساسی مدل‌های بزرگ را اندازه‌گیری می‌کند.

برای مثال، طول زمینه طولانی‌تر می‌تواند به ابزار نوشتن هوش مصنوعی اجازه دهد تا بر اساس آنچه کاربر قبلاً نوشته است، پیشنهادهای مرتبط‌تری ارائه دهد، یا داستان‌های پیچیده‌تر و جذاب‌تری را بر اساس اطلاعات زمینه‌ای بیشتر ایجاد کند.

برای این منظور، Face Wall فناوری پردازش قاب مقاله طولانی LLMxMapReduce را پیشنهاد کرد.

این روشی است برای دستیابی به متن بی نهایت طولانی با برش متن طولانی به چند قطعه، که به مدل اجازه می دهد آن را به صورت موازی پردازش کند، اطلاعات کلیدی را از قطعات مختلف استخراج کند و پاسخ نهایی را خلاصه کند.

گزارش شده است که این فناوری به طور کلی توانایی مدل را برای پردازش متون طولانی افزایش می دهد و زمانی که متن به طولانی شدن ادامه می دهد، همچنان عملکرد پایدار را حفظ می کند و با طولانی شدن از دست دادن امتیاز متن طولانی را کاهش می دهد.

▲ نمودار چارچوب فنی LLMxMapReduce

از 32K تا 512K، MiniCPM 3.0 می تواند محدودیت های حافظه مدل بزرگ را بشکند و طول متن را بی نهایت و به طور پایدار گسترش دهد.

با قضاوت از نتایج تست بنچمارک InfiniteBench متن طولانی مدل بزرگ، با افزایش طول متن، مزیت عملکرد MiniCPM 3.0 با پارامترهای 4B بیشتر و بیشتر آشکار می شود.

نتایج ارزیابی InfiniteBench Zh.QA نشان می‌دهد که عملکرد کلی MiniCPM 3.0 با پارامترهای 4B بهتر از Kimi است و پایداری نسبتاً قوی‌تری را در متون طولانی‌تر نشان می‌دهد.

قوی ترین فراخوانی عملکرد در سمت انتهایی، با عملکرد قابل مقایسه با GPT-4o

Zeng Guoyang در مصاحبه با APPSO و سایر رسانه‌ها همچنین گفت که MiniCPM 3.0 برخی از قابلیت‌هایی را که کاربران نگران آن هستند، مانند افزودن قابلیت‌های کامل فراخوانی سریع سیستم و مفسر کد، بهبود بخشیده است.

در میان آن‌ها، Function Calling می‌تواند معناشناسی ورودی فازی کاربر را به دستورالعمل‌های ساختاری تبدیل کند که ماشین می‌تواند به دقت درک و اجرا کند و به مدل‌های بزرگ اجازه می‌دهد به ابزارها و سیستم‌های خارجی متصل شوند.

به طور خاص، تماس با برنامه‌هایی مانند تقویم، آب‌وهوا، ایمیل، مرورگر و غیره یا پایگاه‌های داده محلی مانند آلبوم‌های عکس و فایل‌های تلفن همراه از طریق صدا، امکانات نامحدودی را برای برنامه‌های Agent دستگاه ترمینال باز می‌کند و تعامل انسان و رایانه را طبیعی‌تر و راحت‌تر می‌کند. .

طبق گزارش‌ها، MiniCPM 3.0 ادعا می‌کند که قوی‌ترین عملکرد فراخوانی عملکرد را در لیست مدیران برکلی دارد، عملکرد آن نزدیک به GPT-4o است و از Llama 3.1-8B، و Qwen-2-7B پیشی می‌گیرد. GLM-4-9B و بسیاری از مدل های دیگر.

Zeng Guoyang گفت که مدل های منبع باز موجود به طور کامل این قابلیت ها را پوشش نمی دهند. اکنون MiniCPM 3.0 برخی از توابع مربوطه را نیز پیاده سازی می کند.

به عنوان مثال RAG (نسل تقویت شده بازیابی) را در نظر بگیرید، یک فناوری که بازیابی اطلاعات (IR) و تولید زبان طبیعی (NLG) را ترکیب می کند.

فرآیند تولید متن را با بازیابی اطلاعات مرتبط از کتابخانه‌های اسناد در مقیاس بزرگ هدایت می‌کند، که می‌تواند دقت و قابلیت اطمینان مدل را در کارهایی مانند پاسخ دادن به سؤالات و تولید متن بهبود بخشد و مشکل توهم مدل‌های بزرگ را کاهش دهد.

برای صنایع عمودی مانند قانون و پزشکی که بر پایه دانش حرفه ای متکی هستند و تحمل بسیار پایینی برای توهمات مدل بزرگ دارند، مدل بزرگ + RAG به ویژه در صنعت کاربردی است.

MiniCPM 3.0 مجموعه سه تکه RAG را در یک حرکت راه اندازی کرد: مدل بازیابی، مدل سفارش مجدد و پلاگین LoRA برای سناریوهای RAG.

MiniCPM-Embedding (مدل بازیابی) به عملکرد SOTA در بازیابی بین زبانی چینی و انگلیسی دست یافته است و در فهرست بازیابی MTEB که قابلیت های جاسازی متن مدل را ارزیابی می کند، رتبه اول را در زبان چینی و سیزدهمین در انگلیسی را کسب کرده است.

MiniCPM-Reranker (مدل رتبه‌بندی مجدد) عملکرد SOTA را در آزمون‌های بین زبان چینی، انگلیسی و چینی-انگلیسی به دست آورد.

پس از آموزش LoRA برای سناریوهای RAG، MiniCPM 3.0-RAG-LoRA در پاسخگویی به سؤالات دامنه باز (NQ، TQA، MARCO)، پاسخگویی به سؤالات چند هاپ (HotpotQA)، گفتگو (WoW)، بررسی واقعیت (FEVER) و پر کردن اطلاعات عملکرد خوبی دارد. (T-REx) و سایر وظایف عملکردی، پیشی گرفتن از مدل های پیشرو در صنعت مانند Llama3-8B و Baichuan2-13B.

برنامه مدل پیاده سازی شده است، ابتدا آن را اجرا کنید و سپس در مورد آن صحبت کنید

در مصاحبه ای با APPSO و رسانه های دیگر، لی داهای، مدیر عامل Wall-Facing Intelligence، اشاره کرد که توانایی اجرا و ساخت نرم افزارهای کاربردی دو مفهوم متفاوت هستند.

MiniCPM 3.0 نیاز به منابع بسیار کمی برای دستگاه های انتهایی دارد.

برای دستگاه های تلفن همراه مانند iPad، توانایی پردازش 18 تا 20 توکن در ثانیه به این معنی است که مدل می تواند ورودی زبان طبیعی را در زمان واقعی پردازش کند.

برای مثال، در برنامه‌های تشخیص گفتار یا ترجمه بلادرنگ، کاربران اساساً تاخیرهای آشکاری را تجربه نمی‌کنند و از یک تجربه تعاملی نسبتاً روان لذت می‌برند.

علاوه بر این، در مقایسه با مدل‌های ابری، مدل‌های سری MiniCPM به‌عنوان مدل‌های انتهایی نیز طبیعتاً دارای مزایای محلی مانند شبکه ضعیف، قابلیت استفاده در زمان قطع، تأخیر بسیار کم و حفظ حریم خصوصی و امنیت داده‌ها هستند.

هنگامی که در نزدیکی کوه برفی Gongga سفر می کنید، اگر می خواهید بهترین موقعیت برای لذت بردن از "کوه Rizhao Jinshan" را بدانید، اگر شبکه شما خوب نیست، می توانید از MiniCPM 3.0 بپرسید.

یا، اگر تازه واردی هستید که «دریا را بگیرید»، در ساحل خشن ایستاده‌اید، اما می‌خواهید با بار کامل به خانه بازگردید، می‌توانید از پیشنهادات MiniCPM 3.0 پیروی کنید. وقتی به آسمان شب نگاه می کنید و ایده گرفتن رد ستارگان را دارید، MiniCPM 3.0 نیز می تواند جزئیات عکس را به شما بگوید.

پشت پیشرفت سریع سری توپ های فولادی کوچک MiniCPM اولین اصل ثابت مدل های بزرگ کارآمد است.

لیو ژیوان، دانشمند ارشد هوش دیواری، زمانی «قانون مور» را در عصر مدل‌های بزرگ پیشنهاد کرد، یعنی چگالی دانش مدل‌های بزرگ به طور متوسط ​​هر هشت ماه دو برابر می‌شود.

چگالی دانش = قابلیت مدل / پارامترهای مدل درگیر در محاسبه

به طور خاص، با ادامه افزایش تراکم دانش مدل، قابلیت 175B GPT-3 در سال 2020 توسط مدل MiniCPM 2.4B در سال 2024 به دست خواهد آمد و GPT-3.5 داخلی ChatGPT در پایان این سال معرفی خواهد شد. 2022 که توسط مدل MiniCPM 3.0 در سال 2024 به دست خواهد آمد.

بر این اساس، اگر MiniCPM عملکرد نهایی را دنبال کند، MiniCPM-V عملکرد نوآوری نهایی چند وجهی را دنبال می کند. پرچمداران دوگانه جانبی

پس از یک یا دو سال اکتشاف فنی، مدل‌های بزرگ هوش مصنوعی به تدریج وارد حوزه کاربرد عملی اعماق آب می‌شوند.

لی داهای معتقد است که مدل های بزرگ دو ارزش کلی دارند که ارزش آن در یک جهت ارتقاء دنیای قدیم است و ارزش در جهت دوم کشف دنیای جدید است.

برای مثال، ادغام سرویس ChatGPT توسط اپل در Apple Intelligence یک مثال معمولی است.

همین امر در مورد مدل سمت دستگاه نیز صادق است در سناریوهایی مانند تلفن های همراه، خودروها و رایانه های شخصی، کار مناسب تر این است که به سازندگان ترمینال خدمات خوبی ارائه دهیم و سپس به سازندگان اجازه دهیم از مدل سمت دستگاه استفاده کنند. کل تجربه در سطح سیستم را تغییر دهید.

با این حال، در جهش هیجان انگیز از فناوری به محصول، تولیدکنندگان نیز باید زمان زیادی را برای یکپارچه سازی نیازهای کاربر و فناوری سرمایه گذاری کنند.

همانطور که لی داهای گفت، اگرچه اینترنت موبایل از زمان ظهور آیفون وجود داشته است، رشد واقعی در مقیاس بزرگ و برنامه های کاربردی اثبات شده تا چند سال بعد شروع به ظهور نکردند.

در واقع، هوشمندی رو به دیوار در حال بررسی سناریوهای کاربردی عملی است.

پیش از این، مدل انتهایی MiniCPM رو به دیوار در رایانه‌های شخصی، تبلت‌ها، تلفن‌های همراه و سایر زمینه‌ها اجرا می‌شد.

چندی پیش، Wall-Facing Intelligence نیز در WAIC به نیروها پیوست تا تکامل ربات ها را تسریع بخشد و راه حلی پیشگام برای "هوش تجسم یافته" کامل ایجاد کند برای درک، استدلال، و تعامل با جهان فیزیکی سیستم هوشمند.

لی داهای همچنین به APPSO و رسانه های دیگر فاش کرد که انتظار می رود محصولات مجهز به مدل های هوشمند انتها به سمت دیواری تا قبل از پایان سال روانه بازار شوند.

به طور خلاصه، هوشمندی رو به دیوار همچنان مدل‌های بزرگ با کارایی بالا و عملکرد بالا را در نزدیک‌ترین نقطه به کاربران قرار می‌دهد، و این امکان را می‌دهد که از قابلیت‌های مدل‌های بزرگ مانند برق، در همه جا، فراگیر و ایمن استفاده شود.

در این فرآیند افراد بیشتری می توانند در سریع ترین زمان ممکن از ارزش و عملکرد مدل های بزرگ لذت ببرند.

آدرس منبع باز MiniCPM 3.0:

GitHub:
 https://github.com/OpenBMB/MiniCPM
صورت در آغوش گرفته:
 https://huggingface.co/openbmb/MiniCPM3-4B

# خوش آمدید به دنبال حساب عمومی رسمی وی چت Aifaner: Aifaner (شناسه WeChat: ifanr در اسرع وقت در اختیار شما قرار خواهد گرفت).

Ai Faner |. لینک اصلی · مشاهده نظرات · Sina Weibo