تحقیقات نشان می دهد که تعامل با هوش مصنوعی و مدل های زبانی بزرگ می تواند به بروز پدیده چت بات و حافظه غلط منجر شود و با القای اطلاعات نادرست، دقت یادآوری را کاهش دهد.
یک مطالعه آزمایشی در ایالات متحده نشان داده که وقتی یک هوش مصنوعی گفتاری، اطلاعات نادرست جزئی رو وارد مکالمات با کاربران می کنه، میزان بروز حافظه کاذب افزایش پیدا می کنه و یادآوری اطلاعات درست کمتر می شه. این تحقیق در IUI ’25: مجموعه مقالات سی امین کنفرانس بین المللی رابط های کاربری هوشمند (1403-1404) منتشر شده. این یافته ها به خصوص در زمینه چت بات و حافظه غلط اهمیت زیادی دارند.
چت بات و حافظه غلط؛ درک مکانیسم ها
حافظه انسان از طریق سه فرآیند اصلی کار می کنه: رمزگذاری، ذخیره سازی و بازیابی. یعنی فرآیندهایی که طی اون ها اطلاعات در مغز به ترتیب تغییر شکل داده می شن، نگهداری می شن و بعدا مورد دسترسی قرار می گیرن. رمزگذاری به توجه و معنا بستگی داره، بنابراین اطلاعاتی که از نظر عاطفی برجسته یا به خوبی سازماندهی شده باشن، بهتر به خاطر سپرده می شن؛ این موضوع در علم عملکرد مبتنی بر هدف برای بهبود فرآیندهای ذهنی و دستیابی به موفقیت نیز مورد تاکید است. خاطرات ذخیره شده ضبط دقیق وقایع نیستن؛ اون ها می تونن در طول زمان تغییر کنن. بازیابی خاطرات ذخیره شده یک فرآیند بازسازی کننده است، به این معنی که خاطرات هر بار که یادآوری می شن دوباره ساخته می شن، نه اینکه صرفا بازپخش بشن.
در این فرآیندها، با بهره برداری از ماهیت بازسازی کننده حافظه، خاطرات کاذب می تونن شکل بگیرن. این پدیده، ارتباط تنگاتنگی با موضوع چت بات و حافظه غلط دارد. خاطرات کاذب، یادآوری رویدادها یا جزئیاتی هستن که واقعی به نظر می رسن اما نادرست یا کاملا ساختگی ان. این خاطرات از طریق تلقین، تخیل, سوالات مکرر، نفوذ اجتماعی یا سردرگمی بین تجربیات مشابه شکل می گیرن. در زمان بازیابی، مغز تمایل داره شکاف ها رو با استفاده از انتظارات، دانش قبلی یا اطلاعات بیرونی پر کنه که بعدا با حافظه ادغام می شن. با گذشت زمان، این جزئیات تغییریافته می تونن درست مثل خاطرات واقعی، زنده و حقیقی به نظر بیان.
نویسنده مطالعه، پات پاتارانتاپورن و همکارانش، پتانسیل چت بات های مولد مخرب رو برای القای خاطرات کاذب و تاثیر چت بات و حافظه غلط بر کاربران، از طریق تزریق اطلاعات نادرست ظریف در طول تعامل با کاربران بررسی کردن. مطالعات قبلی نشون داده بودن که کمپین های ضداطلاعاتی مبتنی بر هوش مصنوعی رو به افزایشه، که در اون ها هوش مصنوعی با استفاده از لحن مقتدرانه، زبان متقاعدکننده و شخصی سازی هدفمند، باعث می شه تشخیص اطلاعات درست از نادرست برای کاربران سخت بشه. مطالعات قبلی همچنین نشون دادن که محتوای تولید شده توسط هوش مصنوعی می تونه روی باورها و نگرش های افراد تاثیر بذاره.
شرکت کنندگان در این مطالعه 180 نفر بودن که از طریق CloudResearch جذب شدن. میانگین سنی شرکت کنندگان 35 سال بود و تعداد شرکت کنندگان زن و مرد با هم برابر بود.
نویسندگان مطالعه به طور تصادفی هر شرکت کننده رو برای خوندن یکی از سه مقاله اطلاعاتی تعیین کردن. یک مقاله درباره انتخابات در تایلند، یکی دیگه درباره توسعه دارو و سومی درباره سرقت از فروشگاه در بریتانیا بود. بعد از این کار، یک تکلیف پرکننده کوتاه انجام شد. سپس، شرکت کنندگان دوباره به طور تصادفی در پنج شرایط مختلف قرار گرفتن. در مجموع برای هر حالت 36 شرکت کننده وجود داشت که برای هر مقاله 12 نفر می شد.
شرایط آزمایشی شامل گروه کنترل (بدون مداخله) و چهار گروه مداخله بود که شامل تعامل با یک هوش مصنوعی (gpt-4o-2024-08-06، یک مدل زبانی بزرگ) می شد. از این چهار حالت، دو حالت شامل خوندن خلاصه تولید شده توسط هوش مصنوعی از مقاله بود، در حالی که دو حالت دیگه شامل شرکت در بحث با هوش مصنوعی می شد. در هر جفت از شرایط، هوش مصنوعی در یکی صادق بود (یعنی حقایق رو از مقالات به درستی ارائه می کرد) و در دیگری گمراه کننده (یعنی اطلاعات نادرست رو در کنار نکات واقعی قرار می داد).
بعد از انجام مداخله تعیین شده، شرکت کنندگان به سوالات پاسخ دادن و یادآوری کردن که آیا نکات خاصی در مقاله اصلی وجود داشته یا نه. پرسشنامه شامل 15 سوال بود که 10 تاش درباره نکات کلیدی مقاله و 5 تاش درباره اطلاعات نادرست بود.
برای هر سوال، شرکت کنندگان می تونستن با «بله»، «خیر» یا «مطمئن نیستم» پاسخ بدن و همچنین میزان اطمینان خودشون رو به پاسخ رتبه بندی کردن. شرکت کنندگان همچنین میزان آشنایی خودشون با هوش مصنوعی رو گزارش کردن، عملکرد کلی حافظه خودشون رو ارزیابی کردن و توانایی خودشون در به خاطر سپردن اطلاعات بصری و کلامی رو رتبه بندی کردن. در نهایت، شرکت کنندگان سطح بی اعتمادی خودشون رو نسبت به اطلاعات رسمی اعلام کردن.
نتایج نشون داد شرکت کنندگانی که با یک چت بات گمراه کننده گفتگو کردن، در مقایسه با سایر شرایط، بیشترین تعداد خاطرات کاذب و کمترین تعداد خاطرات درست رو گزارش کردن. این یافته ها به روشنی پدیده چت بات و حافظه غلط را تایید می کنند. تعداد خاطرات کاذب یادآوری شده توسط افرادی که خلاصه گمراه کننده رو خونده بودن، در مقایسه با گروه های کنترل و صادق، کمی بالاتر بود، اما تفاوت اون قدر زیاد نبود که بشه مطمئن شد این ها صرفا تغییرات تصادفی نیستن. وضعیت برای خاطرات درست هم مشابه بود.
به همین ترتیب، شرکت کنندگانی که با یک چت بات گمراه کننده گفتگو کردن، نسبت به شرکت کنندگان در شرایط صادق، اعتماد کمتری به خاطرات درست خودشون نشون دادن. در کل، شرکت کنندگانی که با یک چت بات گمراه کننده صحبت کردن، کمترین اعتماد رو به خاطرات یادآوری شده خودشون در مقایسه با تمام شرایط درمانی دیگه داشتن.
تاثیر چت بات و حافظه غلط بر کاربران
نویسندگان مطالعه نتیجه گیری کردن: «یافته ها نشون داد که مداخلات مبتنی بر LLM [مدل های زبانی بزرگ] ایجاد حافظه کاذب رو تشدید می کنه و چت بات های گمراه کننده بیشترین اثر ضداطلاعاتی رو دارن. این موضوع به توانایی نگران کننده مدل های زبانی در القای باورهای غلط در کاربرانشون و پدیده چت بات و حافظه غلط اشاره داره. علاوه بر این، این مداخلات نه تنها باعث ترویج خاطرات کاذب شدن، بلکه اعتماد شرکت کنندگان در یادآوری اطلاعات دقیق رو هم کاهش دادن.»
این مطالعه به درک علمی از پدیده چت بات و حافظه غلط کمک می کنه. با این حال، باید توجه داشت که مطالعه بر یادآوری فوری خاطرات تمرکز کرده که اهمیت شخصی خاصی برای شرکت کنندگان نداشتن.
همچنین، اطلاعات اون ها فقط از یک منبع واحد، یعنی همون مقاله ای که خونده بودن، به دست اومده بود. این موضوع با کسب اطلاعات در دنیای واقعی تفاوت اساسی داره؛ جایی که افراد اغلب اطلاعات رو از چندین منبع رقیب جمع آوری می کنن، اون ها رو بر اساس سطح اعتمادی که به منابع دارن و عوامل دیگه پردازش می کنن و می تونن نکاتی که مستقیما بهشون مربوط می شه رو تایید کنن. با این حال، حتی در این شرایط نیز، تاثیر چت بات و حافظه غلط نباید نادیده گرفته شود.
مقاله «لغزش در چت: تزریق ظریف اطلاعات نادرست در گفتگوهای چت بات های مدل زبانی بزرگ، تشکیل حافظه کاذب را افزایش می دهد» توسط پات پاتارانتاپورن، چایاپاتر آرچیوارانگوپروک، سامانتا چان، الیزابت اف. لافتوس و پاتی مائس نوشته شده است.
در نهایت، این پژوهش نشان می دهد که هوش مصنوعی می تواند ابزاری قدرتمند برای تغییر واقعیت در ذهن انسان باشد. شناخت این تاثیرات و توسعه روش هایی برای مقابله با القای اطلاعات نادرست، نقشی حیاتی در استفاده ایمن از تکنولوژی های آینده ایفا خواهد کرد.