به IFNAA.IR خوش آمدید.
[ سبد خرید شما خالی است ]

جهان می خواهد هوش مصنوعی را تنظیم کند، اما کاملا نمی داند چگونه

پایگاه خبری فولاد ایران- به نظر می رسد در "اجلاس ایمنی هوش مصنوعی" که دولت بریتانیا در تاریخ 1 و 2 نوامبر در پارک بلچلی میزبانی می کند، دلالان قدرت جهانی به طور جدی در مورد اینکه چه کاری باید در مورد فناوری که ممکن است جهان را تغییر دهد، بحث کنند.
به گزارش فولاد ایران، تلاش ها برای مهار هوش مصنوعی Ai فراوان است. مذاکرات در بروکسل در 25 اکتبر وارد مرحله مهمی شد زیرا مقامات در تلاش بودند تا اقدام بلندپروازانه اتحادیه اروپا را تا پایان سال نهایی کنند. باشگاه دموکراسی های ثروتمند G7 در پاییز امسال شروع به تهیه پیش نویس آیین نامه رفتاری برای شرکت های هوش مصنوعی می کند. چین، به نوبه خود، در 18 اکتبر از «ابتکار جهانی حکمرانی هوش مصنوعی» رونمایی کرد.
این حرکت از یک اقتصاد سیاسی غیرمعمول ناشی می شود. هوش مصنوعی یک فناوری جهانی است. در برخی از کشورها، سفت کردن پیچ های آن فایده چندانی ندارد.
رقابت مقرراتی فوریت بیشتری در این رابطه می‌افزاید. تاحدی تقویت نقش اتحادیه اروپا در این امر به عنوان تعیین کننده استانداردهای دیجیتال جهانی است. کاخ سفید دوست دارد جلوی چنین «اثر بروکسل» را بگیرد. نه اتحادیه اروپا و نه آمریکا نمی‌خواهند از چین عقب بیفتند، چینی که قبلاً چندین قانون Ai را تصویب کرده است.
یکی دیگر از محرکه های دیپلماسی قاعده سازی هوش مصنوعی حتی شگفت آورتر است: خود مدل سازان. شرکت‌ها نگرانند که رقابت لجام گسیخته با انتشار مدل‌هایی که می‌توانند به راحتی مورد سوء استفاده قرار گیرند یا شروع به توسعه ذهن خود کنند، آنها را مجبور می‌کند بی‌احتیاطی عمل کنند.
سه بحث برجسته است. دنیا باید نگران چه چیزی باشد؟ هر قانون باید چه چیزی را هدف قرار دهد؟ و چگونه باید اجرا شوند؟
با هداف مقررات شروع کنیم. تنظیم اینها سخت است زیرا ai به سرعت در حال تکامل است. به سختی روزی تمام می شود درحالیکه یک استارتاپ چیزی جدید ارائه نکرده باشد. چیزی که هنوز بیشتر هنر است تا علم، بسیار مهم است. بدون چنین "ارزیابی ها"، بررسی اینکه آیا یک مدل با قوانینی مطابقت دارد یا خیر دشوار خواهد بود.
شرکت‌های فناوری ممکن است از مقررات حمایت کنند، اما می‌خواهند که مقررات محدود باشد و فقط خطرات شدید را هدف قرار دهد. در جلسه استماع سنا در واشنگتن در ماه جولای، داریو آمودی، مدیر اجرایی آنتروپیک، هشدار داد که مدل‌های هوش مصنوعی در چند سال آینده قادر خواهند بود تمام اطلاعات مورد نیاز برای ساخت سلاح‌های زیستی را ارائه دهند و دست اندرکاران زیادی را قادر به انجام حملات بیولوژیکی در مقیاس بزرگ کنند. پیش‌بینی‌های وحشتناک مشابهی در مورد سلاح‌های سایبری انجام می‌شود.
بحث در مورد اینکه دقیقاً چه چیزی باید تنظیم شود، آسان تر نخواهد بود. شرکت‌های فناوری عمدتاً محدود کردن بررسی را به قوی‌ترین مدل‌های خاص پیشنهاد می‌کنند. مایکروسافت، در میان دیگران، خواستار یک رژیم صدور مجوز است که شرکت‌ها را ملزم می‌کند مدل‌هایی را ثبت کنند که از آستانه‌های عملکردی خاص فراتر می‌روند.
سپس این سؤال مطرح می شود که چه کسی باید تنظیم را انجام دهد.
آمریکا و بریتانیا فکر می کنند که سازمان های دولتی موجود می توانند بیشتر کار را انجام دهند. اتحادیه اروپا می خواهد یک نهاد نظارتی جدید ایجاد کند. در سطح بین‌المللی، تعداد کمی از مدیران فناوری اکنون خواستار ایجاد چیزی شبیه به هیئت بین‌دولتی تغییرات آب و هوا (ipcc) هستند، که سازمان ملل وظیفه دارد در جریان تحقیقات در مورد گرمایش جهانی و توسعه راه‌هایی برای سنجش تأثیر آن باشد.
با توجه به همه این سؤالات باز، جای تعجب نیست که سازمان دهندگان اجلاس لندن چندان بلندپروازانه به نظر نمی رسند. با این حال، امید نه چندان محرمانه این است که نتایج ملموسی به همراه داشته باشد، به ویژه در روز دوم که تنها 20 نفر از مهم ترین رهبران شرکت ها و جهان در اتاق باقی می مانند. آنها هنوز می‌توانند تعهدات داوطلبانه کاخ سفید را تأیید کنند و ایجاد یک ipcc برای AI یا حتی جهانی‌سازی «نیروی عملیاتی مرزی» موجود بریتانیا را توصیه کنند.
چنین نتیجه ای برای دولت بریتانیا موفقیت محسوب می شود. همچنین به تلاش‌های رسمی‌تر در زمینه حکمرانی جهانی هوش مصنوعی، مانند آیین‌نامه رفتار G7، سرعت می‌بخشد. به این ترتیب، اولین قدم مفید خواهد بود.

 

منبع: اکونومیست

۸ آبان ۱۴۰۲ ۱۱:۴۸
تعداد بازدید : ۴۷۵
کد خبر : ۶۷,۵۶۶

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید