پایگاه خبری فولاد ایران- تئوریهای عامیانه فراوان است که گاهی اوقات با عواقب خطرناکی همراه است. اکنون محققان دریافته اند که چنین باورهایی را می توان با چت با هوش مصنوعی (AI) تغییر داد.
دکتر توماس کاستلو، یکی از نویسندگان این مطالعه از دانشگاه امریکن، گفت: «به ندرت، افراد حتی بر اساس شواهد، باورهای خود را تغییر میدهند.»
او افزود، تصور میشود که این به خاطر این است که مردم چنین باورهایی را برای برآوردن نیازهای مختلف اتخاذ میکنند، مانند میل به کنترل. با این حال، مطالعه جدید موضع متفاوتی ارائه می دهد.
این تیم نوشت: «یافتههای ما اساساً این دیدگاه را به چالش میکشد که شواهد و استدلالها زمانی که فردی نظریه ای را باور کند، فایده چندانی ندارد.»
به گفته محققان، بسیار مهم است که این رویکرد بر یک سیستم هوش مصنوعی متکی است که می تواند از مجموعه وسیعی از اطلاعات برای تولید مکالماتی استفاده کند که تفکر انتقادی را تشویق می کند و استدلال های متضاد مبتنی بر واقعیت را ارائه می دهد.
کاستلو میگوید: «هوش مصنوعی از قبل میدانست که آن شخص چه چیزی را باور دارد و به همین دلیل، میتوانست متقاعد کردن خود را با سیستم اعتقادی دقیق خود تنظیم کند.»
کاستلو و همکارانش در ژورنال ساینس نوشتند که چگونه یک سری آزمایش را شامل 2190 شرکت کننده با اعتقاد به تئوری های توطئه انجام دادند.
به گزارش فولاد ایران، در حالی که آزمایشها کمی متفاوت بودند، از همه شرکتکنندگان خواسته شد تا نظریه توطئه خاصی را که به آن اعتقاد داشتند و شواهدی که فکر میکردند آن را تأیید میکند، توصیف کنند. سپس به یک سیستم هوش مصنوعی به نام "DebunkBot" وارد شد.
همچنین از شرکتکنندگان خواسته شد تا در مقیاس 100 درجهای ارزیابی کنند که به نظر آنها نظریه توطئه چقدر درست است.
سپس آنها آگاهانه یک مکالمه سه دور رفت و برگشتی با سیستم هوش مصنوعی در مورد تئوری توطئه یا موضوعی غیر توطئه انجام دادند. پس از آن، شرکت کنندگان یک بار دیگر ارزیابی کردند که تا چه حد تصور می کنند نظریه توطئه آنها درست است.
نتایج نشان داد کسانی که در مورد موضوعات غیر توطئه بحث میکردند، رتبه «حقیقت» خود را کمی کاهش دادند. با این حال، کسانی که تئوری توطئه خود را با هوش مصنوعی مطرح کردند، به طور متوسط 20 درصد کاهش در اعتقادشان به درست بودن آن نشان دادند.
محققان افزودند که اندازه تأثیر به عواملی از جمله اهمیت این باور برای شرکتکننده و اعتماد آنها به هوش مصنوعی بستگی دارد.
کاستلو گفت: «حدود یک نفر از هر چهار نفری که آزمایش را با اعتقاد به یک تئوری توطئه شروع کردند، بدون این باور به نتیجه رسیدند.»
محققان افزودند که کاهش باور به یک نظریه توطئه به نظر میرسد حداقل تا حدی باور شرکتکنندگان را به ایدههای دیگر کاهش دهد، در حالی که این رویکرد میتواند در دنیای واقعی کاربرد داشته باشد - برای مثال، هوش مصنوعی میتواند به پستهای مربوط به توطئه و نظریه ها در شبکه های اجتماعی پاسخ دهد.
پروفسور ساندر ون در لیندن از دانشگاه کمبریج که در این کار نقشی نداشت، این سوال را مطرح کرد که آیا مردم به طور داوطلبانه در دنیای واقعی با چنین هوش مصنوعی درگیر خواهند شد.
او همچنین گفت که مشخص نیست اگر شرکتکنندگان با یک انسان ناشناس چت میکردند، نتایج مشابهی پیدا میشد یا خیر، در حالی که سوالاتی در مورد اینکه چگونه هوش مصنوعی معتقدان به توطئه را متقاعد میکرد، وجود دارد، با توجه به اینکه این سیستم همچنین از استراتژیهایی مانند همدلی و تأیید استفاده میکند.
اما او افزود: «به طور کلی، این یک یافته واقعا بدیع و بالقوه مهم است و یک تصویر خوب از اینکه چگونه می توان از هوش مصنوعی برای مبارزه با اطلاعات نادرست استفاده کرد، ارائه می دهد.»
منبع: theguardian