پس از تأسیس OpenAI: رویاها، اختلاف نظرها و AGI

یادداشت سردبیر: وقتی سم آلتمن دیدگاه OpenAI را توضیح داد، بدون تردید اظهار داشت که آنها می‌خواهند AGI (هوش عمومی مصنوعی) را توسعه دهند که برای همه بشریت مفید و ایمن است.

با تزریق سرمایه مایکروسافت، بسیاری از مردم در این مورد تردید کردند: آیا OpenAI واقعاً می تواند این کار را انجام دهد؟

سام آلتمن در مواجهه با این سوال پاسخ مثبت داد.

بلومبرگ اخیراً یک مجموعه پادکست چهار قسمتی با نام "بنیانگذار: داستان OpenAI" را ایجاد کرده است که ظهور سم آلتمن را در تلاش برای درک کامل یکی از مهمترین بنیانگذاران زمان ما مستند می کند.

امروز در حال ترجمه قسمت دوم این مجموعه پادکست هستیم. شامل موارد زیر است:

ماهیت چند وجهی AGI: تلاش همه جانبه برای ایجاد AGI به عنوان یک چشم انداز مهم توسط OpenAI در نظر گرفته می شود. این می‌تواند بسیاری از چالش‌های جهانی را حل کند، اما خطرات بی‌سابقه‌ای از جمله هوش مصنوعی غیرقابل کنترل و تأثیرات اجتماعی شدید را به همراه دارد.

تکامل OpenAI: از نوآوری مبتنی بر داده تا به اشتراک گذاری دقیق مدل. چگونه OpenAI تحت پوشش عوامل تجاری "باز" ​​باقی می ماند؟

مبارزه قدرت در OpenAI: تمایل ایلان ماسک برای کنترل بیشتر باعث ایجاد اختلاف با برخی از کارکنان OpenAI شده است. تحت رهبری سام آلتمن، OpenAI از غیرانتفاعی به انتفاعی تبدیل شده است.

لینک پادکست اصلی:

من می خواهم با یک رویا شروع کنم، رویایی در مورد ساختن هوش مصنوعی.

این رویا برای دهه ها تصور و نوشته شده است، زیرا بشریت با هم کار می کند تا موجودی جدید قدرتمندتر از خودمان ایجاد کند. برخی از محققان معتقدند این رویا ممکن است به زودی محقق شود.

یک روز، مغزهای دیجیتالی که در رایانه‌های ما زندگی می‌کنند، به خوبی یا بهتر از مغز بیولوژیکی ما خواهند شد. کامپیوترها از ما هوشمندتر خواهند شد. ما به این هوش عمومی مصنوعی (AGI) می گوییم.

این را Ilya Sutskever یکی از بنیانگذاران OpenAI می گوید. در یک تد تاک سال گذشته، او اغلب مانند یک عارف مذهبی هنگام صحبت در مورد آینده هوش مصنوعی عمل می کرد.

اما اکنون، او فقط در مورد جستجوی AGI صحبت می کند، نوعی هوش مصنوعی که می تواند مانند انسان ها فکر کند و مشکلات را حل کند. می تواند آزادانه بین بازی کردن، حل مسائل علمی، خلق هنر زیبا و رانندگی ماشین جابه جا شود.

هدف OpenAI ساخت AGI است. در دنیای هوش مصنوعی، این ایده قبلاً بسیار آوانگارد بود، حداقل قبلاً چنین بود. ایلیا AGI را جهشی تقریباً عرفانی و مهم به جلو توصیف می کند، مانند پرومتئوس که آتش را به ارمغان می آورد، با پیامدهایی که بسیار بزرگ خواهد بود. این ما را به شکوه تکنولوژیکی و در عین حال هرج و مرج سوق خواهد داد. او در مستند «iHuman» نسبت به تغییرات آینده ابراز اطمینان کرد.

ظهور هوش مصنوعی در حال حاضر یک چیز عالی است، زیرا هوش مصنوعی تمام مشکلاتی را که امروز با آن روبرو هستیم حل خواهد کرد. به اشتغال، بیماری و فقر می پردازد. اما مشکلات جدیدی نیز به همراه خواهد داشت، مشکل اخبار جعلی جدی‌تر می‌شود، حملات سایبری شدیدتر می‌شوند و ما سلاح‌های هوش مصنوعی کاملاً خودکار خواهیم داشت.

ایلیا یک محقق هوش مصنوعی بسیار ماهر است که قبل از پیوستن به OpenAI در گوگل کار می کرد. او علاقه عمیق و پرشوری به انسانیت دارد. او می تواند پیانو بزند و نقاشی بکشد. یکی از نقاشی های او در دفتر OpenAI آویزان شده است.

در عین حال، او همچنین تمرکز زیادی روی تحقیقات هوش مصنوعی دارد. او یک بار به یک خبرنگار گفت: "من زندگی بسیار ساده ای دارم. سر کار می روم و بعد به خانه می روم. کار دیگری انجام نمی دهم. موقعیت های اجتماعی زیادی برای رفتن وجود دارد و فعالیت های زیادی برای رفتن وجود دارد، اما من نمی روم. در آنها شرکت نکنیم."

او زمان زیادی را صرف مشاهده مسیر هوش مصنوعی و تلاش برای پیش بینی آینده می کند. ایلیا به ویژه نگران این است که آیا AGI خواسته ها و اهداف خود را خواهد داشت یا خیر. این خیال در کلام او شنیده می شود.

این طور نیست که به طور فعال از انسان متنفر باشد و بخواهد به آنها آسیب برساند، اما بیش از حد قدرتمند خواهد شد. من فکر می کنم یک تشبیه خوب، نحوه رفتار انسان ها با حیوانات است. ما از حیوانات متنفر نیستیم، اما وقتی لازم است بین دو شهر بزرگراه بسازیم، با آنها مشورت نمی کنیم. می توان تصور کرد که سطح زمین می تواند در پانل های خورشیدی و مراکز داده پوشانده شود.

من می‌خواهم لحظه‌ای در اینجا مکث کنم، این تصویر بسیار قوی و قدرتمندی را نشان می‌دهد که ما در حال ایجاد نوعی وجود جدید هستیم. به ما علاقه مند خواهد شد، اما در نهایت بی تفاوت است، درست مانند ما با گوزن.

چیزی که در این ضبط بیشتر مرا تحت تأثیر قرار داد لحن ایلیا بود که ترس نبود، بلکه هیبت بود. ایلیا یک AGI را تصور می کند که ممکن است ما را برای رسیدن به اهدافش واژگون کند، سناریویی دراماتیک که درک واقعی آن سخت است. این تصور از یک موجود فراطبیعی و قادر مطلق، رنگ و بوی مذهبی بسیار قوی دارد.

باید اشاره کنم که همه اینها کاملاً تئوری است و ما هنوز با AGI فاصله داریم. OpenAI در حال حاضر تمام تلاش خود را می کند تا مدل هایی ایجاد کند که به طور قابل اعتمادی از انسان تقلید کنند، اما هنوز فاصله زیادی بین تقلید و هوش مصنوعی وجود دارد که می تواند مستقل فکر کند. با این حال، OpenAI می خواهد این کار را انجام دهد، و می خواهد بهترین و اولین باشد. در اینجا چیزی است که سام آلتمن هنگام شهادت در مقابل کنگره در سال 2023 گفت:

بزرگترین نگرانی من تاثیر عظیمی است که بر جهان خواهیم داشت. کل حوزه، فناوری و صنعت ما ممکن است "آسیب قابل توجهی" به جهان وارد کند. به همین دلیل این شرکت را راه اندازی کردیم. من فکر می کنم اگر مشکلی با این فناوری پیش بیاید، ممکن است "به طرز وحشتناکی اشتباه شود."

شما در حال گوش دادن به "Foundering" هستید و من میزبان شما الن هویت هستم. در این قسمت، شما را به روزهای ابتدایی پر هرج و مرج و ایده آل OpenAI می بریم.

ما در مورد رویای ساخت یک AGI قدرتمند صحبت می کنیم که مهم است. از آنجایی که OpenAI به سرعت در حال پیشرفت است، مسابقه این نسل تا ماه. ما در مورد اینکه چگونه فناوری هوش مصنوعی به طور چشمگیری و سریع در حال تغییر است و اینکه چگونه این تغییر رویای AGI را از همیشه نزدیکتر می کند بحث خواهیم کرد.

تنها در عرض چند سال، این ایده از یک ایده کنجکاو که مورد خنده قرار گرفت به نقطه عطفی تبدیل شد که برخی از کارشناسان معتقدند طی چند سال می توان به آن دست یافت. سام آلتمن حتی پیشنهاد کرد که ممکن است در سال 2028 اتفاق بیفتد. ما همچنین به مصالحه هایی که OpenAI در تعقیب این رویا انجام داده است نگاه خواهیم کرد.

در ابتدا، شرکت قول داد که تحقیقات خود را به طور گسترده به اشتراک بگذارد و با انگیزه سود خراب نشود. اما زمانی که تکنولوژی آنها شروع به پیشرفت کرد و به نظر می رسید که آنها ممکن است قدرت زیادی به دست آورند، آنها یک چرخش را انجام دادند. این لحظه حساس سپس به جنگ قدرت در OpenAI تبدیل شد و سم آلتمن کنترل را در دست گرفت.

بیایید با سال 2015 شروع کنیم. OpenAI به تازگی با تعهد یک میلیارد دلاری ایلان ماسک و همچنین کمک های مالی از سوی دیگر اهداکنندگان در این زمان تاسیس شده بود. این یک آزمایشگاه تحقیقاتی کوچک و نوپا بود.

در روزهای اول، سم و ایلان زیاد در اطراف نبودند. در آن زمان، سم در واقع هنوز شتابدهنده استارت‌آپ Y Combinator را اداره می‌کرد، اما او شروع به تبدیل شدن به یک رهبر فکری در زمینه هوش مصنوعی کرد. به طور خاص، او در مورد سناریوهای روز رستاخیز هوش مصنوعی صحبت می کرد.

در سال 2015، او در وبلاگی اعلام کرد که توسعه هوش ماشینی فوق بشری می تواند بزرگترین تهدید برای ادامه حیات بشریت باشد. او همچنین نوشت که هوش مصنوعی می تواند هر انسانی را در جهان نابود کند. در همان سال، او در یک رویداد فناوری اشاره کرد که OpenAI در شرف تأسیس است.

در واقع، من به تازگی موافقت کردم که برای شرکتی که تحقیقات ایمنی هوش مصنوعی را انجام می دهد، سرمایه گذاری کنم. می دانید، من فکر می کنم هوش مصنوعی احتمالاً باعث پایان جهان خواهد شد. اما در این میان، شرکت‌های بزرگی وجود خواهند داشت که از تکنیک‌های پیشرفته یادگیری ماشین استفاده می‌کنند.

من می خواهم در مورد این نقل قول صحبت کنم. او می‌گوید هوش مصنوعی می‌تواند همه ما را بکشد در حالی که از ما می‌خواهد به نتایج او به عنوان یک متخصص اعتماد کنیم. اما وقتی صحبت از پول درآوردن می شود، او نیز "گلیب" است.

در روزهای اولیه OpenAI، سم و ایلان اغلب درگیر کارهای روزمره نبودند. آنها بیرون می روند و با مردم صحبت می کنند، استعدادها را جذب می کنند، با خبرنگاران صحبت می کنند. آنها تقریباً یک بار در هفته برای به روز رسانی پیشرفت می آیند. در آن روزها، سام وارد گفتگو می شد و سپس می رفت.

او مرا بسیار باهوش، تیزبین و بسیار کارآمد می داند. وقتی مکالمه تمام شد، تمام شد.

این پیتر آبله، محققی است که در دو سال اول OpenAI کار می‌کرد. او گفت که در روزهای اولیه، OpenAI مانند یک استارت آپ معمولی به نظر می رسید. آنها حتی برای مدتی دفتری نداشتند و در خانه یکی از بنیانگذاران جلسه داشتند.

ما در اواخر سال 2015 و اوایل سال 2016 در آپارتمان گرگ براکمن در منطقه ماموریت سانفرانسیسکو شروع به کار کردیم. ما اساساً روی مبل، روی میز آشپزخانه و در رختخواب می نشینیم و اینجاست که کار اتفاق می افتد. تصور اینکه چنین پروژه عظیمی می تواند از اینجا شروع شود دیوانه کننده است. ما 20 نفر از بهترین محققان هوش مصنوعی در جهان را داریم که بر روی انجام کاری متمرکز شده اند که قبلا هرگز انجام نشده است.

در غیاب سم و ایلان، رهبران اصلی دو مرد بودند که بعداً نقش‌های مهمی را ایفا کردند. آنها افراد مشهوری نیستند اما نقش بزرگی در آینده ایفا خواهند کرد.

یکی گرگ است که آپارتمانش به عنوان دفتر کار آنها عمل می کند و دیگری ایلیا، دانشمند هوش مصنوعی است که در ابتدای قسمت درباره او شنیدیم. شما می توانید گرگ را به عنوان یک معتاد به کار مسئول عملیات تجاری و ایلیا را به عنوان نابغه هوش مصنوعی در نظر بگیرید.

آنها با هم OpenAI را اجرا کردند و پیتر یادش می‌افتد که هر هفته با ایلیا در خیابان‌های سانفرانسیسکو قدم می‌زدند، درباره تصویر بزرگ صحبت می‌کردند، از خود می‌پرسیدند آیا ما مشکل درستی را حل می‌کنیم؟

فکر می کنم او زودتر و واضح تر از هر کس دیگری پتانسیل هوش مصنوعی را دید. او نسبت به دیگران خوشبین تر بود و قیاس می کرد. به عنوان مثال، یک شبکه عصبی فقط یک برنامه کامپیوتری است، فقط یک مدار، ما فقط آن را به روش دیگری برنامه ریزی می کنیم.

در همین حال، گرگ به سختی کار می کرد.

گرگ از آن دسته افرادی است که قلب و روح خود را در کار خود می گذارد. او می توانست به کار و کار ادامه دهد. من چنین افرادی را دیده ام، اما بسیار کم است.

حتی پس از اینکه OpenAI از آپارتمان گرگ نقل مکان کرد، او هنوز تقریباً در دفتر زندگی می کرد. یکی از کارمندان سابق گفت که وقتی صبح به محل کارشان رسیدند همچنان پشت میز کار خود کار می کرد و هنگام غروب که رفتند همچنان روی صفحه کلیدش تایپ می کرد.

وقتی گرگ چند سال بعد ازدواج کرد، حتی یک مراسم سکولار در دفتر داشت. شکل گل که با یک پارچه زمینه گل بزرگ تزئین شده است، همچنین آرم OpenAI است. حلقه توسط یک دست ربات گرفته شده بود و مجری مراسم عروسی ایلیا بود.

وقتی گرگ و ایلیا به OpenAI پیوستند، نیازی به پول نداشتند. ایلیا یک شرکت را به گوگل فروخت و گرگ صاحب سهام زیادی از استرایپ بود و ارزش آن شرکت ده ها میلیارد دلار بود.

در سیلیکون ولی، دلیل معمول راه‌اندازی استارت‌آپ‌ها این است که فکر می‌کنند می‌توانند یک کسب‌وکار پرسود بسازند. اما OpenAI یک سازمان غیرانتفاعی است. گرگ و ایلیا از این رویا الهام گرفتند.

این رید هافمن، یکی از اولین اهداکنندگان OpenAI است:

هیچ بازده حقوقی برای تیم اولیه وجود ندارد. آنها این کار را برای بشریت انجام می دهند.

OpenAI همیشه گفته است: "این برای بشریت است." وب سایت آنها بیان می کند که ماموریت ما این است که اطمینان حاصل کنیم که AGI به نفع همه نوع بشر است.

خب، بر کسی پوشیده نیست که سیلیکون ولی عاشق بیانیه‌های ماموریت بزرگ است و WeWork می‌خواهد آگاهی جهانی را ارتقا دهد، اما بیانیه مأموریت OpenAI حتی بزرگ‌تر است و مضامین نوع‌دوستی دارد.

وقتی سم در مورد کار شرکت صحبت می کند، اغلب درباره فجایع احتمالی صحبت می کند. در اینجا او با ربکا جارویس از ABC صحبت می کند، صدای او دوباره جدی است زیرا او خود را به عنوان یک رهبر فکری در این زمینه معرفی می کند. بنابراین، بدترین نتیجه چیست؟

سام آلتمن: یکی از چیزهایی که من به طور خاص نگران آن هستم این است که این مدل ها می توانند برای اطلاعات نادرست در مقیاس بزرگ استفاده شوند. اکنون که آنها در نوشتن کدهای رایانه ای بهتر شده اند، نگرانم که این سیستم ها برای حملات سایبری تهاجمی مورد استفاده قرار گیرند.

ربکا جارویس: شما به نکته مهمی اشاره می‌کنید و آن این است که انسان‌هایی که اکنون ماشین‌ها را کنترل می‌کنند نیز قدرت فوق‌العاده‌ای دارند.

سام آلتمن: ما در مورد توسعه این فناوری توسط دولت های مستبد بسیار نگران هستیم.

ربکا جارویس: پوتین زمانی گفت که هرکس در این مسابقه هوش مصنوعی برنده شود اساساً بشریت را کنترل خواهد کرد. آیا شما با این شرایط موافق هستید؟

سام آلتمن: این واقعاً بیانیه دلخراشی است.

سام می‌گوید این چیز آنقدر ارزشمند است که ابرقدرت‌های جهانی بر سر آن دعوا خواهند کرد. شکاکان بر این باورند که اگر کاری را که روی آن کار می کنید مهم به نظر برسانید، توجه و بودجه بیشتری را به خود جلب خواهید کرد. در قسمت بعدی به این دیدگاه خواهیم پرداخت.

در روزهای اولیه OpenAI، برنامه های آنها برای نجات بشریت نامشخص بود. استراتژی آنها کمی پراکنده بود، خاطرات پیتر در اینجا آمده است:

ما به رباتیک نگاه کرده‌ایم، در آنجا به ربات‌های آنالوگ نگاه کرده‌ایم، در آنجا تجربیات زیادی را صرف کرده‌ایم و به عوامل دیجیتالی که می‌توانند وظایف مختلفی را در وب انجام دهند، نگاه کرده‌ایم. مانند رزرو پرواز ما به بازی های ویدیویی هم نگاه کردیم.

OpenAI می‌گوید یکی از اولین اهدافش ساختن پیشخدمت روباتی است که بتواند جداول را تنظیم و پاک کند. مثل خدمتکار از جتسون ها.

این شرکت همچنین یک دست رباتیک ساخته است که می تواند مکعب روبیک را با یک دست حل کند و تلاش زیادی را برای توسعه رباتی انجام داده است که بتواند Dota 2، یک بازی آنلاین چند نفره بسیار محبوب را بازی کند. آنها معتقدند که پیچیدگی محیط بازی می تواند به هوش مصنوعی اجازه دهد تا در دنیای واقعی بهتر حرکت کند.

اینجا کسی هست که ربات رو تست میکنه:

این ربات عالی است، بسیار بهتر از آن چیزی که انتظار داشتم.

این ربات های Dota حتی با بازیکنان حرفه ای رقابت می کنند:

از قبل آماده شوید، عمل شروع می شود! بنابراین، هوش مصنوعی اولین قطره خون را دریافت کرد …

رباتی که بتواند Dota را بازی کند از نظر فنی قابل توجه است، اما برای افراد معمولی اینطور به نظر نمی رسد و کاربردهای تجاری این محصولات فوراً مشخص نیست. در اینجا نظر یکی از کارمندان سابق است:

ما کارهای تصادفی انجام می دهیم و می بینیم چه اتفاقی می افتد. گاهی اوقات به نظر می رسد که شکاف بزرگی بین آنچه ساخته شده و آنچه تصور شده است وجود دارد. مردم ربات‌ها را برنامه‌ریزی می‌کنند تا در طول روز بازی‌های ویدیویی انجام دهند، و سپس هنگام ناهار دور میز می‌نشینند و درباره نجات بشریت صحبت می‌کنند.

دیدگاه رایج در زمینه هوش مصنوعی این است که برای ساختن چیزی قدرتمند، گاهی اوقات باید با چیزهای بی اهمیت شروع کنید. بازی های ویدیویی و خدمتکاران روبات راه را برای اتومبیل های خودران و هوش مصنوعی درمان کننده سرطان هموار می کنند.

در OpenAI، آنها گاهی اوقات خود را به پروژه منهتن، تیمی که مسئول ساخت اولین بمب اتمی است، تشبیه می‌کنند و فکر می‌کنند که این یک چیز خوب، جاه‌طلبانه و مهم است. این چیزی است که یکی دیگر از کارمندان سابق به من گفت:

این یک مسابقه تسلیحاتی است، همه آنها می خواهند اولین AGI را بسازند و فکر می کنند که می توانند آن را به بهترین شکل انجام دهند. من ترس زیادی در مورد خود هوش مصنوعی نمی بینم، فقط هیجان ساختن هوش مصنوعی را می بینم.

در سال 2015، هوش مصنوعی بسیار متفاوت از امروز به نظر می رسید، آموزش آن ضعیف تر و سخت تر بود. پیشرفت بزرگ در آن زمان این بود که یک ربات توانست بهترین بازیکنان جهان را در Go، یک بازی پیچیده استراتژی از چین، شکست دهد. اما این هوش مصنوعی فقط می تواند Go را بازی کند، هیچ کار دیگری نمی تواند انجام دهد.

این اورن اتزیونی، استاد علوم کامپیوتر و مدیر تحقیقات سابق یک موسسه تحقیقاتی هوش مصنوعی است:

این سیستم ها دامنه محدود و بسیار هدفمند هستند. سیستمی که Go بازی می کند حتی نمی تواند شطرنج بازی کند چه برسد به اینکه از خیابان عبور کند یا زبانی را بفهمد. و سیستمی که نوسانات قیمت بلیت هواپیما را پیش‌بینی می‌کند و می‌تواند افزایش یا کاهش قیمت بلیط هواپیما را به دقت پیش‌بینی کند، نمی‌تواند متن را مدیریت کند. بنابراین اساساً، هر بار که یک برنامه جدید وجود دارد، باید یک سیستم جدید آموزش دهید. این کار زمان زیادی می برد، به داده های حاشیه نویسی زیادی نیاز دارد و غیره.

اما پس از آن، فناوری هوش مصنوعی یک پیشرفت بزرگ ایجاد کرد. در سال 2017، تیمی از محققان Google Brain مقاله‌ای به نام «توجه تمام چیزی است که نیاز دارید» منتشر کردند. در این مقاله، آنها یک معماری جدید هوش مصنوعی به نام Transformer را توصیف می کنند.

ترانسفورمر برای زمان خود کاری بسیار مهم انجام داد. سیستم هوش مصنوعی باید داده های بسیار خاصی را وارد کند، و هر قطعه از داده ها باید برچسب گذاری شود، این درست است، این اشتباه است، این سرطان است، نه سرطان.

اما Transformer به هوش مصنوعی اجازه می دهد تا داده های نامرتب و بدون برچسب را دریافت کند. در واقع، با استفاده از توان محاسباتی کمتر، می تواند این کار را کارآمدتر از حد انتظار انجام دهد.

اکنون، این مدل های مبتنی بر ترانسفورماتور می توانند به تنهایی یاد بگیرند. کمی مثل این است که اگر می خواهید به کودک خواندن یاد دهید، قبلاً باید معلمی استخدام می کردید تا آنجا بنشیند و از فلش کارت استفاده کند، اما اکنون می توانید اجازه دهید کودک خودش به کتابخانه برود و او با دانستن بیرون بیاید. نحوه خواندن و نوشتن

همانطور که یکی از سرمایه گذاران برای من توضیح داد، این واقعیت غافلگیرکننده و دردناکی است که بهترین هوش مصنوعی از تخصصی ترین تکنیک های آموزشی حاصل نمی شود، بلکه از تکنیک هایی با بیشترین داده ها به دست می آید.

پیتر، یک کارمند اولیه OpenAI، می گوید ایلیا بلافاصله پتانسیل آن را دید:

ایلیا با قاطعیت واکنش نشان داد و گفت این یک پیشرفت بزرگ است که باید به آن توجه کنیم.

حتی در روزهای اولیه OpenAI، ایلیا همیشه این تصور را داشت که پیشرفت‌های عمده در هوش مصنوعی نه از یک ترفند خاص یا اختراع جدید، بلکه از داده‌های بیشتر و ریختن سوخت بیشتر و بیشتر به موتور حاصل می‌شود. اکنون ایلیا تحقیقاتی برای تایید فرضیه خود دارد.

این همان چیزی است که اورن دوباره گفت:

Ilya از OpenAI به این دیدگاه معروف است که داده‌ها و حجم داده‌ها، اگر آن را به میزان قابل توجهی افزایش دهیم، ما را به جایی می‌رساند که باید باشیم. این یک باور رایج نیست و بسیاری از افراد بسیار باهوش و مشهور، از جمله خود من، این را پیش بینی نکرده بودند.

به لطف فشار Ilya، OpenAI شروع به آزمایش با Transformer کرد. آنها یکی از اولین شرکت هایی بودند که این کار را انجام دادند. آنها مدلی را ساختند که ترانسفورماتورهای از پیش آموزش دیده را با نام اختصاری آشنا GPT تولید می کند.

به خصوص زمانی که آنها شروع به آزمایش عملکرد Transformer در هنگام پردازش متن کردند. زیرا آنها اساساً می توانند در هر کتاب، مقاله روزنامه، پست Reddit، وبلاگ تایپ کنند. انسان ها زمان زیادی را صرف نوشتن می کنند و آن متن اکنون هدف جدیدی دارد: آموزش داده ها.

اینترنت برای آموزش هوش مصنوعی ایجاد نشده است، اما در نهایت، این ممکن است میراث آن باشد. مدل‌های OpenAI در تولید متن بهتر می‌شوند و نه فقط در یک حوزه دانش.

نکته شگفت انگیز در مورد سیستم های GPT این است که آنها بسیار گسترده هستند، آنها در واقع کلی هستند. می توانید تقریباً در مورد هر موضوعی از آنها بپرسید و آنها به طور شگفت انگیزی به شما پاسخ های خوبی خواهند داد. دلیلش این است که آنها آموزش دیده اند تا به طور مؤثر کل متن را در دسترس انسان ها قرار دهند، میلیاردها جمله، تمام اسناد، یادداشت ها، چیزهای بی اهمیت، داستان های تخیلی طرفداران هری پاتر را که تا به حال خوانده اید، و همه اینها به آسیاب داده می شود. وقتی این را بخوانید، بسیار متنوع می شود. بنابراین برای اولین بار ما سیستمی داریم که می توانید هر سوالی از آن بپرسید و پاسخی شگفت آور هوشمندانه به شما می دهد، از هوش مصنوعی دامنه باریک گرفته تا یک هوش مصنوعی عمومی یا گسترده.

با وارد کردن مقادیر زیادی متن به مدل، OpenAI دریافت که آنها می توانند هوش مصنوعی ایجاد کنند که در ایجاد پاسخ های قانع کننده بسیار بهتر است. در واقع، در مقطعی، آنها شروع به نگرانی کردند که ممکن است خیلی خوب باشد.

هنگامی که مدل زبان OpenAI GPT-2 برای اولین بار ظهور کرد، تصمیم اولیه آنها این بود که مدل را به طور گسترده به اشتراک نگذارند زیرا آنها نگران بودند که ممکن است خطرناک باشد. این پیتر است که تا آن زمان OpenAI را ترک کرده بود و شرکت خود را راه اندازی کرده بود، اما صحنه روز راه اندازی را به خاطر می آورد:

ظاهراً زبان را خیلی بهتر از هر چیزی که قبلاً روی آن آموزش دیده است می فهمد. انتشار آن با بسیاری از، شاید بازاریابی خوب، شاید احتیاط، یا هر دو همراه بود. آن را "خیلی خطرناک برای انتشار" نامیدند، بنابراین فکر می کنم این اولین پروژه ای است که OpenAI تصمیم گرفت بخشی از کار خود را عمومی نکند. ناگهان چیزی که به آن فکر می کنیم این می شود که "اگر چیزی آنقدر قدرتمند باشد که مردم از آن به گونه ای سوء استفاده کنند که ما نمی توانیم کنترل کنیم، چه؟"

هنگامی که OpenAI یک محصول واقعا قوی داشته باشد، آنها شروع به تجدید نظر در مورد باز بودن خود خواهند کرد.

برای نام OpenAI، Open واقعاً به این معنی است که همه چیز منبع باز خواهد بود و هر کسی می تواند بر روی آن بسازد.

"باز بودن" جزء کلیدی برند شرکت است. هنگامی که آنها راه اندازی شدند، سم به خبرنگار استیون لوی گفت: "این منبع باز خواهد بود و هر کسی می تواند از آن استفاده کند."

او همچنین به خبرنگاران گفت: "هوش مصنوعی آنها به طور آزاد در اختیار جهانیان خواهد بود. نرم افزار منبع باز، به طور کلی، به این معنی است که کد منبع عمومی است و هر کسی می تواند کد را تنظیم کند و خودش آن را توزیع کند، اما شرکت به زودی شروع به برداشتن تدریجی کرد." این تعهدات

بدیهی است که با گذشت زمان این به چیزی تبدیل شد که کاملاً منبع باز یا حتی منبع باز نبود. منظورم این است که آنها قطعاً اکنون کار خود را منبع باز نمی کنند.

به نظر می رسد این روح منبع باز به تدریج در حال ناپدید شدن است. در زیر سخنرانی سام در مونیخ در سال 2023 است:

من کنجکاو هستم، اگر مسیر GPT-2، GPT-3، GPT-4، و سپس GPT-5 و GPT-6 را حفظ کنیم، چند نفر می خواهند که روزی که آموزش را کامل می کنیم، GPT-6 منبع باز کنیم. ?

وای، باشه، ما این کار را نمی کنیم، اما جالب است.

راستش را بخواهید، سام در اینجا بسیار مغرور است. او می دانست که OpenAI در ابتدا قول داده بود که متن باز باشد. اکنون او در حال نظرسنجی از مخاطبان خود در مورد نظر آنها در مورد مدل منبع باز است و سپس بلافاصله پاسخ های آنها را رد می کند.

در طول سال ها، سام به طرز ماهرانه ای معنای "باز" ​​را تغییر داد و مبهم تر شد. در اینجا چیزی است که او در یک شرکت سرمایه گذاری خطرپذیر گفت:

این همان چیزی است که ما OpenAI می نامیم و می خواهیم این فناوری برای همه باز باشد.

او آن را به طور طبیعی گفت، گویی واضح بود که باز بودن به چه معناست. اما به نظر من تعریف او آنقدر مبهم به نظر می رسد که اساساً بی معنی است. منظورم این است که جستجوی گوگل برای همه باز است. به نظر می رسد که OpenAI خوشحال است که مردم را در مورد اینکه منظورشان از باز بودن حدس می زنند، خوشحال می شود.

تنها چند ماه پس از تأسیس شرکت، ایلیا در یک ایمیل داخلی نوشت:

با نزدیک‌تر شدن به ساخت هوش مصنوعی، منطقی به نظر می‌رسد که کم‌تر باز شویم. "Open" در OpenAI به این معنی است که همه باید از نتایج هوش مصنوعی بهره مند شوند، اما نیازی به اشتراک گذاری علم نیست، اگرچه در کوتاه مدت و احتمالاً میان مدت، به اشتراک گذاری همه چیز قطعاً استراتژی مناسبی برای جذب استعداد است.

این ایمیل بسیار جالب است زیرا نشان می دهد که از ابتدا OpenAI قصد داشت علم خود را آزادانه به اشتراک نگذارد. آن‌ها نمی‌خواهند همانطور که ادعا می‌کنند منبع باز باشند، اما می‌خواهند تصویر عمومی باز را حفظ کنند، زیرا به آنها مزیت استخدام می‌دهد.

به عنوان مثال، هوش مصنوعی را برای افراد بد نسازید، بیایید و برای ما کار کنید. وقتی از تغییر تعریف آنها از باز بودن پرسیدیم، یکی از سخنگویان شرکت گفت: "ماموریت ما ثابت مانده است، اما استراتژی ما باید تغییر می کند."

خوب، بیایید به سال 2017 برگردیم. دو سال پس از تاسیس این شرکت، مشکل جدیدی در OpenAI پدیدار شد: مبارزه قدرت.

ایلان می‌خواهد مسئولیت را به دست بگیرد، او از آن دسته آدم‌هایی است که عادت به مدیریت دارد. طبق گفته OpenAI، او می خواهد شرکت را تحت نظر تسلا منتقل کند و با اکثریت سهام مدیرعامل شود. اگر بر وفق مراد او نباشد، استعفا می دهد.

مانند همه چیزهای ایلان، با گذشت زمان او می خواهد کنترل بیشتری را اعمال کند و مطمئن شود که شرکت به شکلی که او می خواهد اداره می شود. بنابراین تنش ایجاد می کند.

این همکار من اشلی ونس است که زندگی نامه ای درباره ایلان نوشته است.

نقش ترجیحی ایلان در هر کاری این است که مدیر عامل و نیروی مسلط در کنترل عملیات روزانه باشد.

در واقع، گرگ براکمن و ایلیا سوتسکور که مسئولیت عملیات روزانه را بر عهده دارند، بسیار هوشیار هستند. اگرچه ایلان بی پروا، تکان دهنده و دشوار است، اما منبع اصلی تامین مالی آنها نیز هست.

او نزدیک به یک میلیارد دلار تعهد کرده است. OpenAI اهداکنندگان دیگری نیز دارد، اما هیچ‌کدام به این مبلغ نزدیک نمی‌شوند. یکی از گزینه ها ماندن در کنار ایلان و حفظ سرمایه اش است.

کارمندان به طور کامل بر اساس این ایده فروخته نمی شوند و نگرانی هایی دارند. بنابراین ما به این نقطه تصمیم رسیدیم: آیا باید با ایلان بمانیم یا او را ترک کنیم؟ در سال های اخیر، مردم تقریباً همیشه با ایلان و خواسته های او کنار آمده اند.

یا گزینه دیگر جدا شدن از ایلان و یافتن منابع مالی دیگر است. آیا کسی را می شناسید که در جمع آوری پول خوب باشد؟ سام آلتمن

تمرکز این بود که ایلان می خواست شرکت به یک سمت برود و کارمندان می خواستند به سمت دیگری بروند، بنابراین سم به عنوان هدایت OpenAI به جلو انتخاب شد.

در چند سال اول، سام چندان درگیر OpenAI نبود. او در واقع هنوز رئیس Y Combinator است، اما در این جنگ قدرت، سم بر ایلان پیروز می شود و این یک معامله بزرگ است. ایلان مشهورتر، با تجربه تر است و به خصوص از باخت متنفر است.

در یک درگیری، واکنش ایلان این است که به هر قیمتی برنده شود. ایلان در سال های اخیر به ندرت در یک "نبرد" شکست خورده است. به طور معمول، اگر او در داخل شرکت نباشد، از کسی شکایت می کند تا او را وادار به تسلیم کند. به سختی می توان نمونه ای را در سال های اخیر پیدا کرد که در آن به نتایجی که می خواست نرسید. بنابراین آشفتگی درون شرکت باید بسیار جدی باشد تا این اتفاق نیفتد.

بنابراین در سال 2018، ایلان هجوم آورد و سرمایه خود را با خود برد. چند سال بعد، او در واقع از سام و OpenAI شکایت کرد و ادعا کرد که آنها از وعده‌های غیرانتفاعی و منبع باز اصلی خود انکار کرده‌اند.

مدت کوتاهی پس از رفتن ایلان، سام مدیر عامل OpenAI شد. به یاد دارید که بنیانگذار YC یک بار چه گفت؟ سام در قدرتمند بودن بسیار خوب است.

علاقه سم به OpenAI همچنان رو به رشد بود و توجه او از مدیریت YC منحرف شد. در واقع، اداره یک شتابدهنده استارتاپی مشهور جهانی موقعیتی است که تأثیر زیادی دارد.

اما رقابت برای AGI در حال داغ شدن است و اگر OpenAI قبل از هر کس دیگری موفق به ایجاد AGI شود، تصور موقعیتی با قدرت بیشتر از مدیر عامل آن دشوار است. با این حال، سم بلافاصله کار خود را در YC رها نکرد.

این وضعیت باعث می شود برخی از افرادی که شتاب دهنده ها را اداره می کنند ناراضی باشند. آنها احساس می کردند که سم بیش از حد منحرف شده است، خیلی سریع فشار می آورد و منافع خود را بر YC مقدم می دارد. این باعث ایجاد دشمنانی برای او در تیم خودش شده است.

در واقع، به گفته یک منبع، پل گراهام، مربی سم، مردی که در ابتدا او را در این موقعیت قرار داد، از بریتانیا پرواز کرد تا شخصاً از سام بخواهد استعفا دهد. پل ایمان خود را به شاگرد سابق خود از دست داد، اما او همچنین نمی خواست درام عمومی خلق کند. بنابراین سام متقاعد شد که از کار کناره گیری کند، آنها سطح پایینی داشتند و اکنون او فقط روی OpenAI تمرکز می کند.

سام هدف بزرگی دارد، جمع آوری بودجه برای آموزش مدل های OpenAI. آنها به قدرت محاسباتی زیادی نیاز دارند و قدرت محاسباتی گران است. سام سعی کرد پول جمع کند اما پیشرفتی نداشت. در اینجا چیزی است که او در پادکست Lex Fridman گفت:

ما به عنوان یک سازمان غیرانتفاعی شروع به کار کردیم. ما در اوایل متوجه شدیم که برای انجام کاری که باید انجام می‌دادیم، به پول بسیار بیشتری از آنچه می‌توانستیم به عنوان یک سازمان غیرانتفاعی جمع آوری کنیم، نیاز داریم. ما چندین بار تلاش کردیم و نتوانستیم به صورت غیرانتفاعی پول جمع کنیم. ما مسیری رو به جلو در آنجا نمی بینیم. بنابراین ما به برخی از مزایای سرمایه داری نیاز داریم، اما نه بیش از حد. من به یاد دارم که شخصی می گفت که به عنوان یک سازمان غیرانتفاعی، همه چیز به اندازه کافی پیش نخواهد رفت.

آنها به چیزی در این وسط نیاز داشتند و صادقانه بگویم، سم چندان نگران زندگی پس از غیرانتفاعی نبود. او چیزی را با هم ترکیب کرد و اساساً یک نهاد انتفاعی ایجاد کرد که به سازمان غیرانتفاعی اصلی وابسته بود.

یک نهاد انتفاعی می‌تواند همه چیز را مانند یک شرکت معمولی انجام دهد، مانند افزایش سرمایه‌گذاری و ارائه سهام به کارکنان، اما بازدهی برای سرمایه‌گذاران محدود است، در حالی که در شرکت‌های دیگر نامحدود است.

این ساختار شرکتی با هم ترکیب شده است، به طوری که OpenAI اکنون اساساً یک نهاد انتفاعی است که توسط هیئت مدیره غیرانتفاعی کنترل می شود، که کمی متزلزل به نظر می رسد. OpenAI چندین سال را صرف این ادعا کرد که آنها غیرانتفاعی خواهند بود، و اکنون آنها این راه حل انتفاعی را یافته اند.

پس از آن تغییر، بسیاری از مردم ناراضی بودند. اما OpenAI بیشتر روی هدف نهایی خود متمرکز است، آنها می خواهند AGI بسازند و برای رسیدن به این هدف نیاز به جمع آوری سرمایه دارند.

سپس، در سال 2019، سام معامله گر معامله بزرگی انجام داد: او یک میلیارد دلار از مایکروسافت جمع آوری کرد. ساتیا نادلا، مدیر عامل مایکروسافت پس از امضای این قرارداد، در ادامه می‌گوید:

سلام، من اینجا با سام آلتمن، مدیر عامل OpenAI هستم. امروز ما بسیار هیجان زده هستیم که همکاری استراتژیک خود را با OpenAI اعلام کنیم.

نکته مهم این است که مایکروسافت قدرت محاسباتی خام زیادی دارد که OpenAI اکنون می تواند از آن استفاده کند. به یاد داشته باشید، OpenAI در ابتدا به عنوان "پادزهر" برای گوگل در نظر گرفته شد. آنها خود را اساساً متفاوت از غول های فناوری تشنه سود معرفی کردند و سپس یک شبه با شرکت های فناوری با ارزش بیش از یک تریلیون دلار ارتباط نزدیکی پیدا کردند.

OpenAI در حال حاضر از بسیاری جهات انشعاب مایکروسافت است که یک تغییر قابل توجه است. رید هافمن، که در آن زمان در هیئت مدیره OpenAI و مایکروسافت بود، این را کنار گذاشتن وعده اولیه OpenAI نمی‌دانست.

این نگرانی وجود داشت که آیا این امر مأموریت را تضعیف می کند. اما من فکر می کنم ساده لوحی مدرن است که فکر کنیم شرکت ها بد یا فاسد هستند، زیرا راه های زیادی وجود دارد که شرکت ها از طریق آن با انسان ها و جامعه درگیر می شوند. آنها سعی می کنند به مشتریان خدمت کنند، کارمندان را استخدام کنند، سهامداران داشته باشند و در جامعه وجود داشته باشند.

نکته رید این است که خواستن پول درآوردن به این معنا نیست که شما بد هستید، که برای یک سرمایه‌دار سرمایه‌دار میلیاردر کاملاً نام تجاری است.

من احساس می کنم که معامله مایکروسافت ممکن است عملی ترین راه برای OpenAI برای ادامه ماموریت خود برای ایجاد AGI ایمن برای تمام بشریت باشد. اما این ویژگی مهم را نیز برجسته می کند که OpenAI تمایل دارد در زمانی که راحت باشد از وعده های خود عقب نشینی کند.

در زیر این، مردم شروع به زیر سوال بردن درستی سام، چه در داخل و چه در خارج از شرکت کردند.

این باعث ایجاد یک ترک بزرگ می شود.

شما را در قسمت بعدی «بنیانگذار» می بینیم!

# خوش آمدید به دنبال حساب عمومی رسمی وی چت Aifaner: Aifaner (شناسه WeChat: ifanr در اسرع وقت در اختیار شما قرار خواهد گرفت).

Ai Faner |. لینک اصلی · مشاهده نظرات · Sina Weibo