مدل بعدی هوش مصنوعی متا برای آموزش تقریباً 10 برابر نیرو نیاز دارد

مدیران این شرکت در جلسه روز چهارشنبه در تماس مالی سه ماهه دوم شرکت توضیح دادند، شرکت مادر فیس بوک متا به سرمایه گذاری هنگفت در تلاش های تحقیقاتی هوش مصنوعی خود ادامه خواهد داد، علیرغم اینکه انتظار می رود این فناوری نوپا قبل از سوددهی به سال ها کار نیاز داشته باشد.

مارک زاکربرگ ، مدیرعامل شرکت متا در این تماس گفت: «متا در حال برنامه‌ریزی برای خوشه‌های محاسباتی و داده‌هایی است که برای چندین سال آینده به آن نیاز خواهیم داشت». متا به «مقدار محاسباتی… تقریباً 10 برابر بیشتر از آنچه برای آموزش Llama 3 استفاده می‌کردیم» نیاز دارد، و افزود که Llama 4 «پیشرفته‌ترین [مدل] در صنعت در سال آینده خواهد بود». برای مرجع، مدل Llama 3 بر روی یک کلاستر از 16384 پردازنده گرافیکی Nvidia H100 80GB آموزش داده شده است.

این شرکت با نوشتن چک برای پروژه های تحقیقاتی و توسعه ای بیگانه نیست. آمارهای مالی سه ماهه دوم متا نشان می دهد که این شرکت انتظار دارد در سال 2024 37 تا 40 میلیارد دلار برای مخارج سرمایه ای هزینه کند و مدیران انتظار دارند در سال آینده این هزینه ها افزایش قابل توجهی داشته باشد. زاکربرگ خاطرنشان کرد: «پیش‌بینی اینکه چگونه این روند چندین نسل را به آینده سوق خواهد داد، دشوار است. اما در این مرحله، با توجه به زمان‌های طولانی برای ایجاد پروژه‌های استنتاج جدید، ترجیح می‌دهم ظرفیت ایجاد کنم قبل از اینکه نیاز باشد، نه اینکه خیلی دیر شود.»

و اینطور نیست که متا پولی برای سوزاندن نداشته باشد. با تخمینی 3.27 میلیارد نفر که از حداقل یک برنامه متا در روز استفاده می کنند، این شرکت در سه ماهه دوم کمی بیش از 39 میلیارد دلار درآمد داشته است که 22 درصد افزایش نسبت به سال قبل را نشان می دهد. از این تعداد، این شرکت حدود 13.5 میلیارد دلار سود کسب کرد که 73 درصد نسبت به سال گذشته افزایش داشت.

اما صرفاً به این دلیل که متا در حال کسب سود است به این معنی نیست که تلاش‌های هوش مصنوعی آن سودآور است. سوزان لی، مدیر مالی اعتراف کرد که هوش مصنوعی مولد آن در سال جاری درآمدزایی نخواهد کرد و مجدداً تأکید کرد که درآمد حاصل از این سرمایه‌گذاری‌ها «در مدت زمان طولانی‌تری به دست خواهد آمد». با این حال، این شرکت «به ساخت زیرساخت‌های هوش مصنوعی با در نظر گرفتن قابلیت تعویض ادامه می‌دهد، تا بتوانیم ظرفیت را در جایی که فکر می‌کنیم به بهترین شکل ممکن استفاده شود، منعطف کنیم».

لی همچنین خاطرنشان کرد که خوشه‌های آموزشی موجود را می‌توان به راحتی برای انجام وظایف استنتاج مجدداً بازسازی کرد، که انتظار می‌رود با بلوغ فناوری و تعداد بیشتری از افراد به استفاده از این مدل‌ها، اکثریت تقاضای محاسباتی را تشکیل دهند.

همانطور که ظرفیت آموزش هوش مصنوعی مولد را برای پیشرفت مدل‌های پایه خود افزایش می‌دهیم، به ساخت زیرساخت‌های خود به گونه‌ای ادامه می‌دهیم که انعطاف‌پذیری در نحوه استفاده از آن در طول زمان برای ما فراهم کند. این به ما این امکان را می‌دهد که ظرفیت آموزشی را به استنتاج هوش مصنوعی ژنرال یا به کار رتبه‌بندی و توصیه‌های اصلی خود هدایت کنیم، زمانی که انتظار داریم انجام این کار ارزشمندتر باشد.»