این پژوهش نشان می دهد که خلاصه های تاریخی تولید شده توسط هوش مصنوعی، حتی در صورت صحت اطلاعات، می توانند به دلیل سوگیری های زبانی پنهان، دیدگاه های اجتماعی کاربران را تغییر داده و بر تاثیر چت بات بر باورهای سیاسی در جامعه بیفزایند.
یه مطالعه جدید که توی PNAS Nexus منتشر شده نشون میده که خوندن خلاصه های تاریخی که توسط هوش مصنوعی تولید شدن، می تونه به طور نامحسوس نظرات اجتماعی و سیاسی آدم ها رو تغییر بده. این تحقیق نشون میده که چت بات های محبوب سوگیری های پنهانی دارن که می تونه روی کاربرها تاثیر بذاره، حتی وقتی که این نرم افزارها در جواب به سوالات بی طرف، اطلاعاتی میدن که از نظر فکتی کاملا درسته. این یافته ها مدرکی هستن بر اینکه تکیه کردن به هوش مصنوعی برای یادگیری در مورد دنیا، ممکنه خیلی بی صدا نگرش های عمومی رو شکل بده و بر تاثیر چت بات بر باورهای سیاسی تاکید دارد.
هوش مصنوعی مولد به برنامه های کامپیوتری ای گفته میشه که می تونن متن، تصویر یا صوت جدیدی رو بر اساس الگوهایی که از حجم عظیمی از داده ها یاد گرفتن، بسازن. چت بات هایی مثل ChatGPT یه مدل رایج از این فناوری هستن. این ها طوری طراحی شدن که شبیه به مکالمه های انسانی باشن و به سوال ها جواب بدن. مردم هر روز بیشتر از قبل از این ابزارها مثل موتورهای جستجوی روزمره استفاده می کنن تا در مورد اتفاقات تاریخی یاد بگیرن و اطلاعات جمع کنن.
دانشمندها می خواستن بدونن که آیا مدل نوشتن این چت بات ها درباره تاریخ، می تونه روی طرز فکر مردم درباره مسائل مدرن تاثیر بذاره یا نه. مطالعات قبلی روی این موضوع تمرکز داشتن که چطور هوش مصنوعی وقتی دستور مستقیم برای استدلال یا پخش اطلاعات غلط داره، مردم رو متقاعد می کنه. اما این تحقیق جدید روی شکل خیلی نامحسوس تری از تاثیرگذاری تمرکز کرده.
بررسی تاثیر چت بات بر باورهای سیاسی؛ سوگیری ها و تغییر دیدگاه ها
«من و همکارهام تحقیقات جالب زیادی رو درباره توانایی چت بات های مجهز به هوش مصنوعی برای متقاعد کردن مردم در طول مکالمه های پویا دنبال می کردیم و برامون سوال شد که محتوای تولید شده توسط هوش مصنوعی چطور می تونه در محیط های معمولی و روزمره روی آدم ها تاثیر بذاره،» این ها رو نویسنده مطالعه، دنیل کارل، استادیار جامعه شناسی در دانشگاه ییل گفته.
«یعنی چه اتفاقی می افته وقتی مردم صرفا عادت می کنن که برای یاد گرفتن چیزهایی درباره دنیا از یه چت بات سوال بپرسن؟ وقتی این سوال برامون پیش اومد، تصمیم گرفتیم روی مورد استفاده از هوش مصنوعی برای یادگیری وقایع تاریخی تمرکز کنیم، چون تحقیقات نشون داده که درک مردم از تاریخ، عمیقا روی هویت و جهان بینی شون تاثیر می ذاره.»
در ادامه تصویری را مشاهده می کنید که نمادی از پردازش اطلاعات و تحلیل های هوش مصنوعی در دنیای مدرن است و به درک بهتر موضوع کمک می کند.
![]()
این تصویر نشان دهنده نقش محوری تکنولوژی در بازتعریف مفاهیم سنتی و تاثیر آن بر لایه های عمیق شناختی انسان است.
دانشمندها مفهومی به اسم “سوگیری پنهان” رو بررسی کردن. این یه جور جهت گیری زیرپوستی هست که به طور طبیعی در طول فرآیند آموزش در یه برنامه کامپیوتری شکل می گیره. این اتفاق معمولا به این خاطر می افته که نرم افزار، نظرات ظریف و الگوهای زبانی موجود در میلیون ها صفحه اینترنتی که می خونه رو به خودش جذب می کنه.
محقق ها همچنین “سوگیری ناشی از دستور” رو هم آزمایش کردن. این زمانی اتفاق می افته که یه کاربر انسانی صراحتا به چت بات دستور میده که یه دیدگاه سیاسی خاص رو در پیش بگیره. مثلا ممکنه کاربر دستوری تایپ کنه و از نرم افزار بخواد که یه خلاصه رو از یه دیدگاه کاملا محافظه کارانه یا لیبرال بنویسه.
برای آزمایش این مفاهیم، محقق ها آزمایشی رو با 1912 شرکت کننده انجام دادن. اون ها گروهی از افراد رو انتخاب کردن که شباهت زیادی به ترکیب جمعیتی مردم ایالات متحده داشت. از هر شرکت کننده خواسته شد که خلاصه های کوتاهی از دو واقعه تاریخی واقعی در قرن بیستم (قرن چهاردهم هجری شمسی) رو بخونن.
یکی از اتفاقات، اعتصاب عمومی سیاتل در سال 1298 بود، جایی که ده ها هزار کارگر برای چند روز دست از کار کشیدن. اتفاق دوم مربوط به اعتراضات دانشجویی دانشگاه در سال 1347 بود که خواستار نمایندگی آکادمیک بیشتر برای اقلیت های قومی بودن. دانشمندها این وقایع خاص رو انتخاب کردن چون امروزه برای یه فرد معمولی خیلی شناخته شده نیستن.
اگه شرکت کننده ها از قبل نظرات قوی و ثابتی درباره یه واقعه می داشتن، احتمال اینکه یه متن کوتاه بتونه نظرشون رو عوض کنه خیلی کم بود. مثلا محقق ها حدس می زدن که وقایع شناخته شده ای مثل حملات 11 سپتامبر و استرس پس از سانحه منجر به تغییر نگرش مشابهی نمی شد. استفاده از وقایع ناشناخته به محقق ها اجازه داد تا قدرت متقاعدکنندگی واقعی متن رو اندازه گیری کنن.
شرکت کننده ها به طور تصادفی به گروه های مختلفی تقسیم شدن تا نسخه های متفاوتی از خلاصه های تاریخی رو بخونن. یه گروه مطالب استاندارد ویکی پدیای مربوط به اون وقایع رو خوندن. گروه دوم خلاصه هایی رو خوندن که توسط چت بات GPT-4o با یه درخواست ساده و خنثی تولید شده بود.
دو گروه دیگه خلاصه هایی رو خوندن که GPT-4o بعد از اینکه بهش دستور داده شده بود با جهت گیری لیبرال یا محافظه کارانه بنویسه، تولید کرده بود. تمام خلاصه های هوش مصنوعی از نظر فکتی کاملا دقیق نگه داشته شده بودن. چت بات فقط قاب بندی، لحن و تاکید روی واقعیت های تاریخی رو تغییر داده بود.
بعد از خوندن متن ها، شرکت کننده ها به سوالات نظرسنجی درباره دیدگاه های اجتماعی و سیاسی خودشون در رابطه با اون وقایع جواب دادن. ازشون درباره نظرشون در مورد مناسب بودن اعتصابات کارگری و استفاده از برنامه های درسی مدرسه برای پیشبرد اهداف عدالت اجتماعی سوال شد. جواب های اون ها در یه مقیاس پنج امتیازی امتیازدهی شد.
در این مقیاس خاص، امتیاز یک به معنی “شدیدا محافظه کار” و امتیاز پنج به معنی “شدیدا لیبرال” بود. امتیاز سه هم نشون دهنده یه دیدگاه کاملا میانه بود. محقق ها بعدش میانگین امتیازها رو حساب کردن تا تمایلات سیاسی کلی خواننده ها رو مشخص کنن.
دانشمندها متوجه شدن که خوندن خلاصه های مختلف تاثیر قابل اندازه گیری روی نگرش شرکت کننده ها داشته. خلاصه های پیش فرض چت بات در مقایسه با خلاصه های استاندارد ویکی پدیا، منجر به نظرات لیبرال تری شد. این نشون میده که مدل پایه، یه سوگیری لیبرال زیرپوستی داره که حتی وقتی کاربر یه سوال ساده می پرسه، به طور طبیعی خودش رو نشون میده. این تغییرات نشان دهنده یک جنبه مهم از تاثیر چت بات بر باورهای سیاسی است.
میانگین نظرات بعد از خوندن متن ویکی پدیا نزدیک به وسط بود که نشون دهنده یه موضع میانه با امتیاز 3.47 بود. میانگین نظرات بعد از خوندن خلاصه های پیش فرض چت بات کمی به سمت بالا رفت و به 3.57 رسید. این حرکت نشون دهنده یه تغییر جزئی از یه موضع میانه به سمت یه موضع تا حدی لیبرال بود.
وقتی به چت بات صراحتا دستور داده شد که از قاب بندی لیبرال استفاده کنه، خواننده ها باز هم به سمت نظرات لیبرال تر متمایل شدن. این تغییر در بین همه گروه های جمعیتی اتفاق افتاد. این موضوع روی خواننده ها تاثیر گذاشت، فارغ از اینکه از ابتدا خودشون رو لیبرال، میانه یا محافظه کار می دونستن. این نتایج به وضوح نشان می دهد که تاثیر چت بات بر باورهای سیاسی می تواند فراتر از دستورات صریح بوده و حتی از طریق سوگیری های پنهان مدل ها نیز اعمال شود.
کارل به PsyPost گفت: «من یه جورایی تعجب کردم که واقعا تاثیری روی نگرش مردم پیدا کردیم. فکر می کردم احتمال زیادی وجود داره که به نتایج پوچ برسیم، چون فکر نمی کردم صرفا خوندن یه خلاصه کوتاه تولید شده توسط هوش مصنوعی از یه واقعه، تاثیر چندانی داشته باشه (در مقایسه با خوندن خلاصه ویکی پدیا از همون واقعه).»
«احتمالا به این خاطر تاثیر پیدا کردیم که از وقایع تاریخی ای استفاده کردیم که برای مردم خیلی آشنا نبودن. اگه وقایع شناخته شده ای رو انتخاب می کردیم، مثل حملات 20 شهریور 1380 یا شورش 17 دی 1399 در ساختمان کنگره آمریکا، احتمالا به نتایج پوچی می رسیدیم چون خیلی از مردم از قبل نگرش های کاملا شکل گرفته و محکمی درباره این وقایع دارن.»
خلاصه هایی که با قاب بندی محافظه کارانه تولید شده بودن، تمایل داشتن که خواننده ها در کل نظرات محافظه کارانه تری رو گزارش کنن. اما این تغییر عمدتا در بین شرکت کننده هایی اتفاق افتاد که از قبل گرایش محافظه کارانه داشتن، نه اینکه نظر خواننده های لیبرال یا میانه رو تغییر بده. این یافته ها اهمیت درک سوگیری های چت بات ها را در شکل دهی به افکار عمومی و تاثیر چت بات بر باورهای سیاسی نشان می دهد.
این واکنش نابرابر ممکنه به نحوه پردازش اطلاعات جدید توسط آدم ها مربوط باشه. مردم تمایل دارن واقعیت های جدید رو از فیلتر سیستم های اعتقادی موجودشون رد کنن. برخورد با اطلاعاتی که باورهای موجود رو تایید می کنه اغلب اون دیدگاه ها رو تقویت می کنه، در حالی که برخورد با دیدگاه های مخالف می تونه باعث واکنش های دفاعی بشه.
کارل گفت: «دیدگاه های مردم درباره یه واقعه تاریخی می تونه تحت تاثیر یادگیری اون واقعه از یه چت بات هوش مصنوعی تجاری محبوب قرار بگیره، حتی وقتی کاربر با یه پرس وجوی ساده و خنثی از چت بات سوال می پرسه. علاوه بر این، نگرش های اون ها می تونه توسط چت بات وقتی که بهش دستور داده شده سوگیری سیاسی خاصی بگیره (که انجامش راحته) هم تحت تاثیر قرار بگیره.»
«در کل، کاربران هوش مصنوعی باید آگاه باشن که شرکت هایی که ابزارهای هوش مصنوعی رو توسعه میدن و دولت هایی که ممکنه مقرراتی رو به اون ها تحمیل کنن می تونن ویژگی هایی رو به چت بات القا کنن که متعاقبا روی کاربران تاثیر بذاره و بر تاثیر چت بات بر باورهای سیاسی آن ها نیز اثرگذار باشد، حتی وقتی که اون ها دارن از ابزار هوش مصنوعی به روش های معمولی و روزمره استفاده می کنن.»
در حالی که این مطالعه شواهدی از متقاعدسازی رو ارائه میده، مهمه که از اغراق در مورد دامنه یافته ها خودداری کنیم. این آزمایش فقط خلاصه های دو واقعه تاریخی رو تست کرده. تحقیقات بیشتری لازمه تا ببینیم آیا این الگوها برای دوره های تاریخی دیگه و موضوعات دیگه فراتر از تاریخ هم صدق می کنن یا نه.
کارل توضیح داد: «مهمه که به خاطر داشته باشیم اندازه اثرها متوسط هستن. تفاوت بین گروه هایی که هوش مصنوعی و خلاصه های ویکی پدیا رو خوندن، مثلا بین یه نگرش میانه و یه نگرش “کمی لیبرال” بود. با این حال، ممکنه اندازه ی این اثرها روی هم جمع بشن و در نهایت با استفاده های زیاد از چت بات، پیامدهای بیشتری پیدا کنن، اما برای تعیین این موضوع به تحقیقات بیشتری نیاز هست.»
میزان سوگیری پنهان احتمالا بین مدل های کامپیوتری مختلف که توسط شرکت های مختلف ساخته شدن، متفاوته. نحوه آموزش و فیلتر شدن یه مدل قبل از اینکه به دست عموم برسه، می تونه طرز صحبت اون درباره تاریخ رو تغییر بده. مطالعات آینده ممکنه بررسی کنن که دقیقا چطور جهت گیری زیرپوستی یه مدل با دستورات خاص کاربر تعامل پیدا می کنه. تحقیقات آتی می تواند به درک عمیق تری از چگونگی تعدیل یا تقویت تاثیر چت بات بر باورهای سیاسی از طریق تنظیمات و تعاملات خاص کاربر کمک کند.
کارل گفت: «در آینده نزدیک، خیلی از مردم با صرفا پرسیدن از یه چت بات، درباره تاریخ و همچنین چیزهای دیگه درباره دنیای ما یاد می گیرن. این موضوع دانش و یادگیری رو در دست توسعه دهنده ها و تنظیم کننده های ابزارهای هوش مصنوعی قرار میده که فکر می کنم پیامدهای مهمی برای جامعه، از جمله تاثیر چت بات بر باورهای سیاسی، خواهد داشت. درک این پیامدها وظیفه بزرگیه که به پروژه های تحقیقاتی زیادی نیاز داره و همچنین تلاش مداوم دانشمندان علوم اجتماعی برجسته ای که در حال حاضر دارن روی پیامدهای اجتماعی هوش مصنوعی مطالعه می کنن.»
خلاصه یافته ها؛ ابعاد تاثیر چت بات بر باورهای سیاسی
کارل اضافه کرد: «بعد از اینکه ما مطالعه رو انجام دادیم (اما قبل از انتشار)، xAI اعلام کرد که قصد داره از چت بات هوش مصنوعی خودش یعنی Grok استفاده کنه تا نسخه خودش از ویکی پدیا رو به اسم “Grokipedia” بسازه. بنابراین، خلاصه های گسترده و در دسترس عموم از تاریخ (و دانش های دیگه) که توسط ابزار هوش مصنوعی یه شرکت خصوصی تولید شده، الان دیگه یه واقعیته.»
این مطالعه با عنوان «سوگیری های پنهان و دستوری در روایت های تاریخی تولید شده توسط هوش مصنوعی چطور بر نظرات تاثیر می گذارند» توسط متیو شو، دنیل کارل، کیتارو اوکورا و توماس آر دیویدسون نوشته شده است.
آگاهی از پتانسیل چت بات ها در تغییر نگرش ها، گامی ضروری برای استفاده هوشمندانه از این ابزارهاست. با گسترش روزافزون استفاده از هوش مصنوعی مولد، شناخت مکانیسم هایی که از طریق آن ها سوگیری های پنهان وارد زندگی روزمره می شوند، به حفظ استقلال فکری در فضای دیجیتال کمک خواهد کرد.
Relying on AI chatbots for historical facts can influence your political beliefs, new study shows