پایگاه خبری فولاد ایران- اوپن ای آی (Open AI)، پیشرو در مسابقه توسعه هوش مصنوعی به اندازه یک انسان هوشمند است. با این حال، همچنان در مطبوعات و پادکست ها نگرانی های جدی در مورد ایمنی آن بیان می شود. آخرین مورد در واشنگتن پست منتشر شده است، جایی که یک منبع ناشناس ادعا کرد که OpenAI با عجله آزمایش های ایمنی را انجام داده و قبل از اطمینان از ایمنی آن، محصول خود را جشن گرفته است.
به گزارش فولاد ایران، مشکلات ایمنی در OpenAI بزرگ است و به نظر می رسد که همچنان ادامه دارد. کارمندان فعلی و سابق OpenAI اخیراً نامهای سرگشاده را امضا کردند که در آن خواستار اقدامات ایمنی و شفافیت بهتر از این استارتآپ شدند. یان لیکه، محقق کلیدی OpenAI، اندکی پس از آن استعفا داد و در پستی ادعا کرد که «فرهنگ ایمنی و فرآیندها به سمت محصولات لوکس به عقب رانده شده است»
این استارت اپ مدعی است که «ایمنی هسته اصلی منشور OpenAI است. OpenAI حتی مدلهای اختصاصی خود را که باعث ایجاد جرقه ها و شکایتهای قضایی است، خصوصی نگه میدارد.» اینطور که به نظر می رسد ایمنی با وجود اینکه برای فرهنگ و ساختار شرکت بسیار مهم است، از اولویت برخوردار است.
تایا کریستینسون، سخنگوی OpenAI در بیانیهای به The Verge گفت: «ما به سوابق خود در ارائه قویترین و ایمنترین سیستمهای هوش مصنوعی افتخار میکنیم و به رویکرد علمی خود برای مقابله با ریسک اعتقاد داریم. با توجه به اهمیت این فناوری، بحث های دقیق بسیار مهم است و ما به تعامل با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان در خدمت ماموریت خود ادامه خواهیم داد.»
به گفته OpenAI و دیگرانی که در مورد فناوری نوظهور مطالعه می کنند، خطرات در مورد ایمنی بسیار زیاد است. در گزارشی که توسط وزارت امور خارجه ایالات متحده در ماه مارس تهیه شد، آمده است: «توسعه هوش مصنوعی مرزی فعلی خطرات فوری و فزاینده ای برای امنیت ملی ایجاد می کند. ظهور هوش مصنوعی پیشرفته و AGI ، هوش عمومی مصنوعی این پتانسیل را دارد که امنیت جهانی را به شیوههایی که یادآور معرفی سلاحهای هستهای است، بیثبات کند.
در مواجهه با جنجالهای متوالی، OpenAI با چند اعلامیه به موقع سعی در فرونشاندن ترسها داشته است. این هفته، این شرکت اعلام کرد که با آزمایشگاه ملی لوس آلاموس همکاری می کند تا بررسی کند که چگونه مدل های پیشرفته هوش مصنوعی، مانند GPT-4o، می توانند با خیال راحت در تحقیقات علوم زیستی کمک کنند، و در همان اعلامیه، بارها به سابقه ایمنی خود لوس آلاموس اشاره کرد. یک سخنگوی ناشناس به بلومبرگ گفت که OpenAI یک مقیاس داخلی برای ردیابی پیشرفت مدلهای زبانی بزرگ خود به سمت هوش عمومی مصنوعی ایجاد کرده است.
به نظر میرسد که اعلامیههای متمرکز بر ایمنی این هفته از OpenAI در مواجهه با انتقادات فزاینده از شیوههای ایمنی آن، پوششی دفاعی باشد. واضح است که OpenAI در جایگاه داغی قرار دارد، اما تلاشهای روابط عمومی آن به تنهایی برای محافظت از جامعه کافی نیست.
لینا خان، رئیس FTC در ماه نوامبر به بلومبرگ گفت: «ابزارهای هوش مصنوعی می توانند انقلابی باشند.» او گفت: "در حال حاضر، نگرانی هایی وجود دارد که ورودی های حیاتی این ابزارها توسط تعداد نسبتا کمی از شرکت ها کنترل می شود."
منبع: theverge