مدیران این شرکت در جلسه روز چهارشنبه در تماس مالی سه ماهه دوم شرکت توضیح دادند، شرکت مادر فیس بوک متا به سرمایه گذاری هنگفت در تلاش های تحقیقاتی هوش مصنوعی خود ادامه خواهد داد، علیرغم اینکه انتظار می رود این فناوری نوپا قبل از سوددهی به سال ها کار نیاز داشته باشد.
مارک زاکربرگ ، مدیرعامل شرکت متا در این تماس گفت: «متا در حال برنامهریزی برای خوشههای محاسباتی و دادههایی است که برای چندین سال آینده به آن نیاز خواهیم داشت». متا به «مقدار محاسباتی… تقریباً 10 برابر بیشتر از آنچه برای آموزش Llama 3 استفاده میکردیم» نیاز دارد، و افزود که Llama 4 «پیشرفتهترین [مدل] در صنعت در سال آینده خواهد بود». برای مرجع، مدل Llama 3 بر روی یک کلاستر از 16384 پردازنده گرافیکی Nvidia H100 80GB آموزش داده شده است.
این شرکت با نوشتن چک برای پروژه های تحقیقاتی و توسعه ای بیگانه نیست. آمارهای مالی سه ماهه دوم متا نشان می دهد که این شرکت انتظار دارد در سال 2024 37 تا 40 میلیارد دلار برای مخارج سرمایه ای هزینه کند و مدیران انتظار دارند در سال آینده این هزینه ها افزایش قابل توجهی داشته باشد. زاکربرگ خاطرنشان کرد: «پیشبینی اینکه چگونه این روند چندین نسل را به آینده سوق خواهد داد، دشوار است. اما در این مرحله، با توجه به زمانهای طولانی برای ایجاد پروژههای استنتاج جدید، ترجیح میدهم ظرفیت ایجاد کنم قبل از اینکه نیاز باشد، نه اینکه خیلی دیر شود.»
و اینطور نیست که متا پولی برای سوزاندن نداشته باشد. با تخمینی 3.27 میلیارد نفر که از حداقل یک برنامه متا در روز استفاده می کنند، این شرکت در سه ماهه دوم کمی بیش از 39 میلیارد دلار درآمد داشته است که 22 درصد افزایش نسبت به سال قبل را نشان می دهد. از این تعداد، این شرکت حدود 13.5 میلیارد دلار سود کسب کرد که 73 درصد نسبت به سال گذشته افزایش داشت.
اما صرفاً به این دلیل که متا در حال کسب سود است به این معنی نیست که تلاشهای هوش مصنوعی آن سودآور است. سوزان لی، مدیر مالی اعتراف کرد که هوش مصنوعی مولد آن در سال جاری درآمدزایی نخواهد کرد و مجدداً تأکید کرد که درآمد حاصل از این سرمایهگذاریها «در مدت زمان طولانیتری به دست خواهد آمد». با این حال، این شرکت «به ساخت زیرساختهای هوش مصنوعی با در نظر گرفتن قابلیت تعویض ادامه میدهد، تا بتوانیم ظرفیت را در جایی که فکر میکنیم به بهترین شکل ممکن استفاده شود، منعطف کنیم».
لی همچنین خاطرنشان کرد که خوشههای آموزشی موجود را میتوان به راحتی برای انجام وظایف استنتاج مجدداً بازسازی کرد، که انتظار میرود با بلوغ فناوری و تعداد بیشتری از افراد به استفاده از این مدلها، اکثریت تقاضای محاسباتی را تشکیل دهند.
همانطور که ظرفیت آموزش هوش مصنوعی مولد را برای پیشرفت مدلهای پایه خود افزایش میدهیم، به ساخت زیرساختهای خود به گونهای ادامه میدهیم که انعطافپذیری در نحوه استفاده از آن در طول زمان برای ما فراهم کند. این به ما این امکان را میدهد که ظرفیت آموزشی را به استنتاج هوش مصنوعی ژنرال یا به کار رتبهبندی و توصیههای اصلی خود هدایت کنیم، زمانی که انتظار داریم انجام این کار ارزشمندتر باشد.»