پایگاه خبری فولاد ایران- به نظر می رسد در "اجلاس ایمنی هوش مصنوعی" که دولت بریتانیا در تاریخ 1 و 2 نوامبر در پارک بلچلی میزبانی می کند، دلالان قدرت جهانی به طور جدی در مورد اینکه چه کاری باید در مورد فناوری که ممکن است جهان را تغییر دهد، بحث کنند.
به گزارش فولاد ایران، تلاش ها برای مهار هوش مصنوعی Ai فراوان است. مذاکرات در بروکسل در 25 اکتبر وارد مرحله مهمی شد زیرا مقامات در تلاش بودند تا اقدام بلندپروازانه اتحادیه اروپا را تا پایان سال نهایی کنند. باشگاه دموکراسی های ثروتمند G7 در پاییز امسال شروع به تهیه پیش نویس آیین نامه رفتاری برای شرکت های هوش مصنوعی می کند. چین، به نوبه خود، در 18 اکتبر از «ابتکار جهانی حکمرانی هوش مصنوعی» رونمایی کرد.
این حرکت از یک اقتصاد سیاسی غیرمعمول ناشی می شود. هوش مصنوعی یک فناوری جهانی است. در برخی از کشورها، سفت کردن پیچ های آن فایده چندانی ندارد.
رقابت مقرراتی فوریت بیشتری در این رابطه میافزاید. تاحدی تقویت نقش اتحادیه اروپا در این امر به عنوان تعیین کننده استانداردهای دیجیتال جهانی است. کاخ سفید دوست دارد جلوی چنین «اثر بروکسل» را بگیرد. نه اتحادیه اروپا و نه آمریکا نمیخواهند از چین عقب بیفتند، چینی که قبلاً چندین قانون Ai را تصویب کرده است.
یکی دیگر از محرکه های دیپلماسی قاعده سازی هوش مصنوعی حتی شگفت آورتر است: خود مدل سازان. شرکتها نگرانند که رقابت لجام گسیخته با انتشار مدلهایی که میتوانند به راحتی مورد سوء استفاده قرار گیرند یا شروع به توسعه ذهن خود کنند، آنها را مجبور میکند بیاحتیاطی عمل کنند.
سه بحث برجسته است. دنیا باید نگران چه چیزی باشد؟ هر قانون باید چه چیزی را هدف قرار دهد؟ و چگونه باید اجرا شوند؟
با هداف مقررات شروع کنیم. تنظیم اینها سخت است زیرا ai به سرعت در حال تکامل است. به سختی روزی تمام می شود درحالیکه یک استارتاپ چیزی جدید ارائه نکرده باشد. چیزی که هنوز بیشتر هنر است تا علم، بسیار مهم است. بدون چنین "ارزیابی ها"، بررسی اینکه آیا یک مدل با قوانینی مطابقت دارد یا خیر دشوار خواهد بود.
شرکتهای فناوری ممکن است از مقررات حمایت کنند، اما میخواهند که مقررات محدود باشد و فقط خطرات شدید را هدف قرار دهد. در جلسه استماع سنا در واشنگتن در ماه جولای، داریو آمودی، مدیر اجرایی آنتروپیک، هشدار داد که مدلهای هوش مصنوعی در چند سال آینده قادر خواهند بود تمام اطلاعات مورد نیاز برای ساخت سلاحهای زیستی را ارائه دهند و دست اندرکاران زیادی را قادر به انجام حملات بیولوژیکی در مقیاس بزرگ کنند. پیشبینیهای وحشتناک مشابهی در مورد سلاحهای سایبری انجام میشود.
بحث در مورد اینکه دقیقاً چه چیزی باید تنظیم شود، آسان تر نخواهد بود. شرکتهای فناوری عمدتاً محدود کردن بررسی را به قویترین مدلهای خاص پیشنهاد میکنند. مایکروسافت، در میان دیگران، خواستار یک رژیم صدور مجوز است که شرکتها را ملزم میکند مدلهایی را ثبت کنند که از آستانههای عملکردی خاص فراتر میروند.
سپس این سؤال مطرح می شود که چه کسی باید تنظیم را انجام دهد.
آمریکا و بریتانیا فکر می کنند که سازمان های دولتی موجود می توانند بیشتر کار را انجام دهند. اتحادیه اروپا می خواهد یک نهاد نظارتی جدید ایجاد کند. در سطح بینالمللی، تعداد کمی از مدیران فناوری اکنون خواستار ایجاد چیزی شبیه به هیئت بیندولتی تغییرات آب و هوا (ipcc) هستند، که سازمان ملل وظیفه دارد در جریان تحقیقات در مورد گرمایش جهانی و توسعه راههایی برای سنجش تأثیر آن باشد.
با توجه به همه این سؤالات باز، جای تعجب نیست که سازمان دهندگان اجلاس لندن چندان بلندپروازانه به نظر نمی رسند. با این حال، امید نه چندان محرمانه این است که نتایج ملموسی به همراه داشته باشد، به ویژه در روز دوم که تنها 20 نفر از مهم ترین رهبران شرکت ها و جهان در اتاق باقی می مانند. آنها هنوز میتوانند تعهدات داوطلبانه کاخ سفید را تأیید کنند و ایجاد یک ipcc برای AI یا حتی جهانیسازی «نیروی عملیاتی مرزی» موجود بریتانیا را توصیه کنند.
چنین نتیجه ای برای دولت بریتانیا موفقیت محسوب می شود. همچنین به تلاشهای رسمیتر در زمینه حکمرانی جهانی هوش مصنوعی، مانند آییننامه رفتار G7، سرعت میبخشد. به این ترتیب، اولین قدم مفید خواهد بود.
منبع: اکونومیست