You are currently viewing هوش مصنوعی به قوانین نیاز دارد، اما چه کسی آنها را ایجاد خواهد کرد؟

هوش مصنوعی به قوانین نیاز دارد، اما چه کسی آنها را ایجاد خواهد کرد؟



حدود 150 رهبر دولتی و صنعت از سراسر جهان، از جمله معاون رئیس جمهور کامالا هریس و میلیاردر ایلان ماسک، این هفته برای اجلاس ایمنی هوش مصنوعی بریتانیا وارد انگلستان شدند. این نشست به عنوان یک نقطه کانونی برای گفتگوی جهانی در مورد چگونه هوش مصنوعی را تنظیم کنیم. اما برای برخی از کارشناسان، نقش بزرگی را که شرکت‌های هوش مصنوعی در این گفتگو ایفا می‌کنند، برجسته می‌کند – به ضرر بسیاری از افرادی که ممکن است تحت تأثیر قرار بگیرند اما هیچ سهم مالی در موفقیت هوش مصنوعی ندارند.

در اول نوامبر، نمایندگان 28 کشور و اتحادیه اروپا پیمانی را امضا کردند که به اصطلاح بیانیه بلچلی (به نام سایت اجلاس، بلچلی پارک در بلچلی، انگلستان)، که در آن آنها توافق کردند که به بحث در مورد چگونگی استقرار ایمن هوش مصنوعی ادامه دهند. اما برای یک نفر از هر 10 شرکت‌کننده در انجمن، که بسیاری از آنها نماینده سازمان‌های جامعه مدنی هستند، گفتگو در بریتانیا به اندازه کافی خوب نیست.

به دنبال اعلامیه بلچلی، 11 سازمان حاضر صادر کردند نامه ی سرگشاده گفتن این اجلاس با تمرکز بر روی آن به جهان ضرر می رساند خطرات احتمالی آینده– مانند تروریست‌ها یا مجرمان سایبری که هوش مصنوعی مولد را انتخاب می‌کنند یا این ایده خیالی‌تر که هوش مصنوعی می‌تواند هوشیار شود، خود را از کنترل انسان رها کند و همه ما را به بردگی بگیرد. در نامه آمده است که اجلاس قبلاً نادیده گرفته شده است خطرات واقعی و فعلی هوش مصنوعیاز جمله تبعیض، جابجایی اقتصادی، استثمار و دیگر انواع سوگیری.

الکساندرا ریو گیونز، یکی از امضاکنندگان این سند، گفت: «ما نگران بودیم که تمرکز محدود نشست بر روی آسیب‌های ایمنی درازمدت می‌تواند از نیاز فوری سیاست‌گذاران و شرکت‌ها برای رسیدگی به روش‌هایی که سیستم‌های هوش مصنوعی در حال حاضر بر حقوق مردم تأثیر می‌گذارند، منحرف کند. بیانیه و مدیر عامل مرکز غیرانتفاعی دموکراسی و فناوری (CDT). او می‌گوید از آنجایی که هوش مصنوعی بسیار سریع در حال توسعه است، تمرکز بر قوانین برای جلوگیری از خطرات نظری آینده مستلزم تلاشی است که بسیاری معتقدند بهتر است برای نوشتن قوانینی صرف شود که با خطرات اینجا و اکنون سروکار دارد.

برخی از این آسیب‌ها به این دلیل رخ می‌دهند که مدل‌های هوش مصنوعی مولد بر روی داده‌ها آموزش داده می‌شوند از اینترنت بازیابی شده است، که حاوی سوگیری هستند. در نتیجه، چنین الگوهایی منجر به نتایجی می شود که به نفع گروه های خاصی است و به ضرر دیگران می شود. به عنوان مثال، اگر از یک هوش مصنوعی تولید کننده تصویر بخواهید تصاویری از مدیران اجرایی یا رهبران کسب و کار ایجاد کند، به کاربران عکس هایی از مردان سفیدپوست میانسال نشان می دهد. در همین حال، تحقیقات خود CDT، چگونگی آن را برجسته می کند افرادی که انگلیسی صحبت نمی کنند در وضعیت بدی قرار دارند از طریق استفاده از هوش مصنوعی مولد، زیرا بیشتر داده های آموزش مدل به زبان انگلیسی است.

با این حال، سناریوهای ریسک آینده دورتر به وضوح برای برخی از شرکت های قدرتمند هوش مصنوعی اولویت دارند. از جمله OpenAI، که ChatGPT را توسعه داد. و بسیاری از کسانی که نامه سرگشاده را امضا کردند معتقدند صنعت هوش مصنوعی تأثیر زیادی در شکل‌دهی رویدادهای مهم مانند اجلاس بلچلی پارک دارد. به عنوان مثال، برنامه رسمی جلسه مجموعه فعلی ابزارهای هوش مصنوعی مولد را با عبارت “هوش مصنوعی مرزی” توصیف می کند، که بیانگر اصطلاحی است که صنعت هوش مصنوعی در نامگذاری ناظر خود نظارتی خود استفاده می کند. انجمن مدل مرزی.

با تأثیرگذاری بر چنین تحولاتی، شرکت‌های قدرتمند نیز نقش نامتناسبی در شکل‌دهی سیاست‌های رسمی هوش مصنوعی ایفا می‌کنند – نوعی موقعیت به نام «تسخیر نظارتی». در نتیجه، این سیاست ها تمایل دارند که منافع شرکت را در اولویت قرار دهند. ماریت شاکه، مدیر سیاست بین‌الملل در مرکز سیاست سایبری دانشگاه استنفورد، می‌گوید: «به نفع داشتن یک فرآیند دموکراتیک، این فرآیند باید مستقل باشد، نه فرصتی برای تسخیر شرکت‌ها».

به عنوان مثال، اکثر شرکت های خصوصی هوش مصنوعی منبع باز را در اولویت قرار نمی دهند (اگرچه استثناهایی وجود دارد، مانند مدل LLaMA متا). در ایالات متحده، دو روز قبل از شروع اجلاس در بریتانیا، رئیس جمهور جو بایدن فرمان اجرایی صادر کرد این شامل مقرراتی بود که برخی از دانشگاهیان آن را به نفع توسعه دهندگان AI منبع باز به بازیگران بخش خصوصی می دانستند. “این می تواند پیامدهای بزرگی برای منبع باز داشته باشد [AI]مارک ریدل، دانشیار علوم کامپیوتر در موسسه فناوری جورجیا، گفت: علم باز و دموکراتیک کردن هوش مصنوعی. در 31 اکتبر، بنیاد غیرانتفاعی موزیلا نامه سرگشاده جداگانه ای صادر کرد که نیاز به باز بودن و ایمنی در مدل های هوش مصنوعی را برجسته می کند. امضاکنندگان آن عبارتند از Yann LeCun، استاد هوش مصنوعی در دانشگاه نیویورک و دانشمند ارشد در Meta for AI.

برخی از کارشناسان فقط از رگولاتورها می خواهند که گفتگو را فراتر از دغدغه اصلی شرکت های هوش مصنوعی گسترش دهند – خطر وجودی در دستان آینده. هوش عمومی مصنوعی (AGI) – به فهرست گسترده‌تری از آسیب‌های احتمالی. برای دیگران، حتی این دسترسی گسترده تر به اندازه کافی خوب نیست.

مارگارت می‌گوید: «در حالی که من کاملاً درک می‌کنم که خطرات AGI باعث حواس‌پرتی و نگرانی در مورد مشارکت شرکت‌ها می‌شود، شروع به نگرانی می‌کنم که حتی تلاش برای تمرکز روی ریسک‌ها برای شرکت‌ها به ضرر مردم بسیار سودمند است.» میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face. (این شرکت در اجلاس بلچلی پارک نماینده داشت، اما خود میچل در یک انجمن موازی در ایالات متحده بود که توسط سناتور چاک شومر از ایالت نیویورک در آن زمان برگزار شد.)

میچل می گوید: «تنظیمات هوش مصنوعی باید بر روی افراد متمرکز شود، نه فناوری. “و این بدان معنی است [having] تمرکز کمتر بر روی “این فناوری چه کارهای بدی می تواند انجام دهد و چگونه آن را دسته بندی کنیم؟” و تمرکز بیشتر روی “چگونه باید از مردم محافظت کنیم؟” احتیاط میچل از رویکرد مبتنی بر ریسک تا حدی به این دلیل به وجود آمد که بسیاری از شرکت ها مشتاق پیوستن بودند. این رویکرد در اجلاس بریتانیا و سایر رویدادهای مشابه این هفته. او می‌گوید: «این بلافاصله پرچم‌های قرمز را برای من به اهتزاز درآورد.

میچل از اتخاذ رویکردی مبتنی بر حقوق برای مقررات هوش مصنوعی به جای رویکرد مبتنی بر ریسک حمایت می کند. Chinasa T. Okolo، یکی از همکاران مؤسسه بروکینگز که در این رویداد در بریتانیا شرکت کرد، همینطور. او می‌گوید: «گفت‌وگوهای اصلی در جلسه حول خطراتی است که «مدل‌های مرزی» برای جامعه ایجاد می‌کنند، اما آسیب‌هایی را که هوش مصنوعی به برچسب‌زنان داده، کارگرانی که شاید برای توسعه هوش مصنوعی مهم‌ترین هستند، از دست بدهید. “

تمرکز ویژه بر حقوق بشر، گفتگو را در حوزه ای قرار می دهد که سیاست گذاران و تنظیم کننده ها می توانند احساس راحتی بیشتری کنند. میچل معتقد است که این به قانون‌گذاران کمک می‌کند تا قوانینی را برای محافظت از افرادی که در معرض آسیب‌های ناشی از هوش مصنوعی هستند، با اطمینان تهیه کنند. همچنین می‌تواند برای شرکت‌های فناوری که بسیار مشتاق هستند از موقعیت فعلی خود – و میلیاردها دلار سرمایه‌گذاری‌شان محافظت کنند، سودآوری ایجاد کند. او می‌گوید: «با تمرکز دولت بر حقوق و اهداف، می‌توانید مقررات از بالا به پایین، جایی که دولت واجد شرایط‌تر است، با مقررات پایین به بالا، جایی که توسعه‌دهندگان واجد شرایط هستند، ترکیب کنید.»



Source link