حدود 150 رهبر دولتی و صنعت از سراسر جهان، از جمله معاون رئیس جمهور کامالا هریس و میلیاردر ایلان ماسک، این هفته برای اجلاس ایمنی هوش مصنوعی بریتانیا وارد انگلستان شدند. این نشست به عنوان یک نقطه کانونی برای گفتگوی جهانی در مورد چگونه هوش مصنوعی را تنظیم کنیم. اما برای برخی از کارشناسان، نقش بزرگی را که شرکتهای هوش مصنوعی در این گفتگو ایفا میکنند، برجسته میکند – به ضرر بسیاری از افرادی که ممکن است تحت تأثیر قرار بگیرند اما هیچ سهم مالی در موفقیت هوش مصنوعی ندارند.
در اول نوامبر، نمایندگان 28 کشور و اتحادیه اروپا پیمانی را امضا کردند که به اصطلاح بیانیه بلچلی (به نام سایت اجلاس، بلچلی پارک در بلچلی، انگلستان)، که در آن آنها توافق کردند که به بحث در مورد چگونگی استقرار ایمن هوش مصنوعی ادامه دهند. اما برای یک نفر از هر 10 شرکتکننده در انجمن، که بسیاری از آنها نماینده سازمانهای جامعه مدنی هستند، گفتگو در بریتانیا به اندازه کافی خوب نیست.
به دنبال اعلامیه بلچلی، 11 سازمان حاضر صادر کردند نامه ی سرگشاده گفتن این اجلاس با تمرکز بر روی آن به جهان ضرر می رساند خطرات احتمالی آینده– مانند تروریستها یا مجرمان سایبری که هوش مصنوعی مولد را انتخاب میکنند یا این ایده خیالیتر که هوش مصنوعی میتواند هوشیار شود، خود را از کنترل انسان رها کند و همه ما را به بردگی بگیرد. در نامه آمده است که اجلاس قبلاً نادیده گرفته شده است خطرات واقعی و فعلی هوش مصنوعیاز جمله تبعیض، جابجایی اقتصادی، استثمار و دیگر انواع سوگیری.
الکساندرا ریو گیونز، یکی از امضاکنندگان این سند، گفت: «ما نگران بودیم که تمرکز محدود نشست بر روی آسیبهای ایمنی درازمدت میتواند از نیاز فوری سیاستگذاران و شرکتها برای رسیدگی به روشهایی که سیستمهای هوش مصنوعی در حال حاضر بر حقوق مردم تأثیر میگذارند، منحرف کند. بیانیه و مدیر عامل مرکز غیرانتفاعی دموکراسی و فناوری (CDT). او میگوید از آنجایی که هوش مصنوعی بسیار سریع در حال توسعه است، تمرکز بر قوانین برای جلوگیری از خطرات نظری آینده مستلزم تلاشی است که بسیاری معتقدند بهتر است برای نوشتن قوانینی صرف شود که با خطرات اینجا و اکنون سروکار دارد.
برخی از این آسیبها به این دلیل رخ میدهند که مدلهای هوش مصنوعی مولد بر روی دادهها آموزش داده میشوند از اینترنت بازیابی شده است، که حاوی سوگیری هستند. در نتیجه، چنین الگوهایی منجر به نتایجی می شود که به نفع گروه های خاصی است و به ضرر دیگران می شود. به عنوان مثال، اگر از یک هوش مصنوعی تولید کننده تصویر بخواهید تصاویری از مدیران اجرایی یا رهبران کسب و کار ایجاد کند، به کاربران عکس هایی از مردان سفیدپوست میانسال نشان می دهد. در همین حال، تحقیقات خود CDT، چگونگی آن را برجسته می کند افرادی که انگلیسی صحبت نمی کنند در وضعیت بدی قرار دارند از طریق استفاده از هوش مصنوعی مولد، زیرا بیشتر داده های آموزش مدل به زبان انگلیسی است.
با این حال، سناریوهای ریسک آینده دورتر به وضوح برای برخی از شرکت های قدرتمند هوش مصنوعی اولویت دارند. از جمله OpenAI، که ChatGPT را توسعه داد. و بسیاری از کسانی که نامه سرگشاده را امضا کردند معتقدند صنعت هوش مصنوعی تأثیر زیادی در شکلدهی رویدادهای مهم مانند اجلاس بلچلی پارک دارد. به عنوان مثال، برنامه رسمی جلسه مجموعه فعلی ابزارهای هوش مصنوعی مولد را با عبارت “هوش مصنوعی مرزی” توصیف می کند، که بیانگر اصطلاحی است که صنعت هوش مصنوعی در نامگذاری ناظر خود نظارتی خود استفاده می کند. انجمن مدل مرزی.
با تأثیرگذاری بر چنین تحولاتی، شرکتهای قدرتمند نیز نقش نامتناسبی در شکلدهی سیاستهای رسمی هوش مصنوعی ایفا میکنند – نوعی موقعیت به نام «تسخیر نظارتی». در نتیجه، این سیاست ها تمایل دارند که منافع شرکت را در اولویت قرار دهند. ماریت شاکه، مدیر سیاست بینالملل در مرکز سیاست سایبری دانشگاه استنفورد، میگوید: «به نفع داشتن یک فرآیند دموکراتیک، این فرآیند باید مستقل باشد، نه فرصتی برای تسخیر شرکتها».
به عنوان مثال، اکثر شرکت های خصوصی هوش مصنوعی منبع باز را در اولویت قرار نمی دهند (اگرچه استثناهایی وجود دارد، مانند مدل LLaMA متا). در ایالات متحده، دو روز قبل از شروع اجلاس در بریتانیا، رئیس جمهور جو بایدن فرمان اجرایی صادر کرد این شامل مقرراتی بود که برخی از دانشگاهیان آن را به نفع توسعه دهندگان AI منبع باز به بازیگران بخش خصوصی می دانستند. “این می تواند پیامدهای بزرگی برای منبع باز داشته باشد [AI]مارک ریدل، دانشیار علوم کامپیوتر در موسسه فناوری جورجیا، گفت: علم باز و دموکراتیک کردن هوش مصنوعی. در 31 اکتبر، بنیاد غیرانتفاعی موزیلا نامه سرگشاده جداگانه ای صادر کرد که نیاز به باز بودن و ایمنی در مدل های هوش مصنوعی را برجسته می کند. امضاکنندگان آن عبارتند از Yann LeCun، استاد هوش مصنوعی در دانشگاه نیویورک و دانشمند ارشد در Meta for AI.
برخی از کارشناسان فقط از رگولاتورها می خواهند که گفتگو را فراتر از دغدغه اصلی شرکت های هوش مصنوعی گسترش دهند – خطر وجودی در دستان آینده. هوش عمومی مصنوعی (AGI) – به فهرست گستردهتری از آسیبهای احتمالی. برای دیگران، حتی این دسترسی گسترده تر به اندازه کافی خوب نیست.
مارگارت میگوید: «در حالی که من کاملاً درک میکنم که خطرات AGI باعث حواسپرتی و نگرانی در مورد مشارکت شرکتها میشود، شروع به نگرانی میکنم که حتی تلاش برای تمرکز روی ریسکها برای شرکتها به ضرر مردم بسیار سودمند است.» میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face. (این شرکت در اجلاس بلچلی پارک نماینده داشت، اما خود میچل در یک انجمن موازی در ایالات متحده بود که توسط سناتور چاک شومر از ایالت نیویورک در آن زمان برگزار شد.)
میچل می گوید: «تنظیمات هوش مصنوعی باید بر روی افراد متمرکز شود، نه فناوری. “و این بدان معنی است [having] تمرکز کمتر بر روی “این فناوری چه کارهای بدی می تواند انجام دهد و چگونه آن را دسته بندی کنیم؟” و تمرکز بیشتر روی “چگونه باید از مردم محافظت کنیم؟” احتیاط میچل از رویکرد مبتنی بر ریسک تا حدی به این دلیل به وجود آمد که بسیاری از شرکت ها مشتاق پیوستن بودند. این رویکرد در اجلاس بریتانیا و سایر رویدادهای مشابه این هفته. او میگوید: «این بلافاصله پرچمهای قرمز را برای من به اهتزاز درآورد.
میچل از اتخاذ رویکردی مبتنی بر حقوق برای مقررات هوش مصنوعی به جای رویکرد مبتنی بر ریسک حمایت می کند. Chinasa T. Okolo، یکی از همکاران مؤسسه بروکینگز که در این رویداد در بریتانیا شرکت کرد، همینطور. او میگوید: «گفتوگوهای اصلی در جلسه حول خطراتی است که «مدلهای مرزی» برای جامعه ایجاد میکنند، اما آسیبهایی را که هوش مصنوعی به برچسبزنان داده، کارگرانی که شاید برای توسعه هوش مصنوعی مهمترین هستند، از دست بدهید. “
تمرکز ویژه بر حقوق بشر، گفتگو را در حوزه ای قرار می دهد که سیاست گذاران و تنظیم کننده ها می توانند احساس راحتی بیشتری کنند. میچل معتقد است که این به قانونگذاران کمک میکند تا قوانینی را برای محافظت از افرادی که در معرض آسیبهای ناشی از هوش مصنوعی هستند، با اطمینان تهیه کنند. همچنین میتواند برای شرکتهای فناوری که بسیار مشتاق هستند از موقعیت فعلی خود – و میلیاردها دلار سرمایهگذاریشان محافظت کنند، سودآوری ایجاد کند. او میگوید: «با تمرکز دولت بر حقوق و اهداف، میتوانید مقررات از بالا به پایین، جایی که دولت واجد شرایطتر است، با مقررات پایین به بالا، جایی که توسعهدهندگان واجد شرایط هستند، ترکیب کنید.»