به IFNAA.IR خوش آمدید.
[ سبد خرید شما خالی است ]

نقش هوش مصنوعی در تغییر تئوری‌های عامیانه

پایگاه خبری فولاد ایران- تئوری‌های عامیانه فراوان است که گاهی اوقات با عواقب خطرناکی همراه است. اکنون محققان دریافته اند که چنین باورهایی را می توان با چت با هوش مصنوعی (AI) تغییر داد.
دکتر توماس کاستلو، یکی از نویسندگان این مطالعه از دانشگاه امریکن، گفت: «به ندرت، افراد حتی بر اساس شواهد، باورهای خود را تغییر می‌دهند.»
او افزود، تصور می‌شود که این به خاطر این است که مردم چنین باورهایی را برای برآوردن نیازهای مختلف اتخاذ می‌کنند، مانند میل به کنترل. با این حال، مطالعه جدید موضع متفاوتی ارائه می دهد.
این تیم نوشت: «یافته‌های ما اساساً این دیدگاه را به چالش می‌کشد که شواهد و استدلال‌ها زمانی که فردی نظریه ای را باور کند، فایده چندانی ندارد.»
به گفته محققان، بسیار مهم است که این رویکرد بر یک سیستم هوش مصنوعی متکی است که می تواند از مجموعه وسیعی از اطلاعات برای تولید مکالماتی استفاده کند که تفکر انتقادی را تشویق می کند و استدلال های متضاد مبتنی بر واقعیت را ارائه می دهد.
کاستلو می‌گوید: «هوش مصنوعی از قبل می‌دانست که آن شخص چه چیزی را باور دارد و به همین دلیل، می‌توانست متقاعد کردن خود را با سیستم اعتقادی دقیق خود تنظیم کند.»
کاستلو و همکارانش در ژورنال ساینس نوشتند که چگونه یک سری آزمایش را شامل 2190 شرکت کننده با اعتقاد به تئوری های توطئه انجام دادند.
به گزارش فولاد ایران، در حالی که آزمایش‌ها کمی متفاوت بودند، از همه شرکت‌کنندگان خواسته شد تا نظریه توطئه خاصی را که به آن اعتقاد داشتند و شواهدی که فکر می‌کردند آن را تأیید می‌کند، توصیف کنند. سپس به یک سیستم هوش مصنوعی به نام "DebunkBot" وارد شد.
همچنین از شرکت‌کنندگان خواسته شد تا در مقیاس 100 درجه‌ای ارزیابی کنند که به نظر آنها نظریه توطئه چقدر درست است.
سپس آنها آگاهانه یک مکالمه سه دور رفت و برگشتی با سیستم هوش مصنوعی در مورد تئوری توطئه یا موضوعی غیر توطئه انجام دادند. پس از آن، شرکت کنندگان یک بار دیگر ارزیابی کردند که تا چه حد تصور می کنند نظریه توطئه آنها درست است.
نتایج نشان داد کسانی که در مورد موضوعات غیر توطئه بحث می‌کردند، رتبه «حقیقت» خود را کمی کاهش دادند. با این حال، کسانی که تئوری توطئه خود را با هوش مصنوعی مطرح کردند، به طور متوسط 20 درصد کاهش در اعتقادشان به درست بودن آن نشان دادند.
محققان افزودند که اندازه تأثیر به عواملی از جمله اهمیت این باور برای شرکت‌کننده و اعتماد آنها به هوش مصنوعی بستگی دارد.
کاستلو گفت: «حدود یک نفر از هر چهار نفری که آزمایش را با اعتقاد به یک تئوری توطئه شروع کردند، بدون این باور به نتیجه رسیدند.»
محققان افزودند که کاهش باور به یک نظریه توطئه به نظر می‌رسد حداقل تا حدی باور شرکت‌کنندگان را به ایده‌های دیگر کاهش ‌دهد، در حالی که این رویکرد می‌تواند در دنیای واقعی کاربرد داشته باشد - برای مثال، هوش مصنوعی می‌تواند به پست‌های مربوط به توطئه و نظریه ها در شبکه های اجتماعی پاسخ دهد.
پروفسور ساندر ون در لیندن از دانشگاه کمبریج که در این کار نقشی نداشت، این سوال را مطرح کرد که آیا مردم به طور داوطلبانه در دنیای واقعی با چنین هوش مصنوعی درگیر خواهند شد.
او همچنین گفت که مشخص نیست اگر شرکت‌کنندگان با یک انسان ناشناس چت می‌کردند، نتایج مشابهی پیدا می‌شد یا خیر، در حالی که سوالاتی در مورد اینکه چگونه هوش مصنوعی معتقدان به توطئه را متقاعد می‌کرد، وجود دارد، با توجه به اینکه این سیستم همچنین از استراتژی‌هایی مانند همدلی و تأیید استفاده می‌کند.
اما او افزود: «به طور کلی، این یک یافته واقعا بدیع و بالقوه مهم است و یک تصویر خوب از اینکه چگونه می توان از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده کرد، ارائه می دهد.»


منبع: theguardian

۲۵ شهریور ۱۴۰۳ ۱۰:۲۹
تعداد بازدید : ۲۷۶
کد خبر : ۷۰,۸۵۸

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید