گاوین نیوسام، فرماندار کالیفرنیا، SB 1047، قانون نوآوری ایمن و ایمن برای مدلهای مصنوعی مرزی را وتو کرده است و در نامهای به قانونگذاران استدلال میکند که «چارچوب نظارتی ایجاد میکند که میتواند حس امنیت کاذبی را در مورد کنترل این حرکت سریع به مردم بدهد. تکنولوژی.”
او نوشت: "من معتقد نیستم که این بهترین رویکرد برای محافظت از مردم در برابر تهدیدات واقعی ناشی از فناوری است." SB 1047 میخواهد «یک توسعهدهنده، قبل از شروع آموزش اولیه یک مدل تحت پوشش … با الزامات مختلف، از جمله پیادهسازی قابلیت اجرای فوری خاموش شدن کامل … و پیادهسازی یک پروتکل ایمنی و امنیتی مکتوب و مجزا، مطابقت داشته باشد».
با این حال، Newsom اشاره کرد که 32 شرکت از 50 شرکت برتر هوش مصنوعی در کالیفرنیا مستقر هستند و این لایحه تنها بر بزرگترین شرکتها تمرکز خواهد کرد. او گفت: «مدلهای کوچکتر و تخصصیتر ممکن است به همان اندازه یا حتی خطرناکتر از مدلهای هدف SB 1047 ظاهر شوند.
Newsom نوشت: «در حالی که SB 1047 حسن نیت دارد، این موضوع را در نظر نمیگیرد که آیا یک سیستم Al در محیطهای پرخطر مستقر است، تصمیمگیری حیاتی یا استفاده از دادههای حساس را شامل میشود. در عوض، این لایحه استانداردهای سختگیرانهای را حتی برای ابتداییترین عملکردها اعمال میکند – تا زمانی که یک سیستم بزرگ آن را مستقر کند.
SB 1047 بحث های داغی را در صنعت هوش مصنوعی به راه انداخت که راه خود را در مجلس قانونگذاری طی کرد. OpenAI به شدت با این اقدام مخالفت کرد و در نتیجه محققان ویلیام ساندرز و دانیل کوکوتاجلو در اعتراض علنی از سمت خود استعفا دادند ، در حالی که ایلان ماسک، مدیر عامل xAI ، از این لایحه حمایت کرد . بسیاری در هالیوود نیز از SB 1047 حمایت کردند ، از جمله جی جی آبرامز، جین فوندا، پدرو پاسکال، شاندا رایمز و مارک همیل.
ما نمی توانیم قبل از اقدام برای محافظت از مردم منتظر وقوع یک فاجعه بزرگ باشیم. کالیفرنیا مسئولیت خود را رها نخواهد کرد. پروتکل های ایمنی باید اتخاذ شود. نیوسام نوشت: نردههای محافظ فعال باید اجرا شوند و عواقب شدید برای بازیگران بد باید واضح و قابل اجرا باشد. با این حال، «در نهایت، هر چارچوبی برای
تنظیم موثر Al باید همگام با خود فناوری باشد.
اعلامیه روز دوشنبه کمتر از یک ماه پس از امضای AB 2602 و AB 1836 توسط فرماندار که هر دو توسط اتحادیه SAG-AFTRA پشتیبانی میشوند ، منتشر شد. AB 2602 از اجراکنندگان میخواهد قبل از استفاده از «کپیهای دیجیتالی» خود رضایت آگاهانه بدهند، در حالی که AB 1836 حفاظتها را در برابر قطع کردن صدا و شباهت اجراکنندگان متوفی تقویت کرد.