تحقیقات جدید نشان می دهد که ابزارهای تکمیل خودکار هوش مصنوعی می توانند به طور نامحسوس بر دیدگاه های اجتماعی و سیاسی کاربران اثر بگذارند؛ این موضوع که به عنوان تاثیر هوش مصنوعی بر عقاید شناخته می شود، حتی در صورت آگاهی از جهت گیری ابزار نیز همچنان پایدار می ماند.
ابزارهای نوشتار هوش مصنوعی که کلمات بعدی ما رو پیش بینی و پیشنهاد می کنن، می تونن خیلی بیشتر از اینکه فقط سرعت تایپمون رو زیاد کنن، کار انجام بدن. تحقیقات جدید نشون می ده که تعامل با پیشنهادهای تکمیل خودکارِ جهت دار می تونه به صورت پنهانی، نگرش های زیربنایی افراد رو در مورد مسائل مهم اجتماعی تغییر بده. این تحقیق به خصوص در مورد تاثیر هوش مصنوعی بر عقاید اهمیت دارد. یافته هایی که در مجله Science Advances ، منتشر شده نشون می ده که تاثیر نامحسوس این برنامه های روزمره اغلب از آگاهی هوشیارانه ما عبور می کنه.
چگونه هوش مصنوعی بر عقاید ما تاثیر می گذارد؟
برنامه های هوش مصنوعی که با مدل های زبانی بزرگ کار می کنن، روز به روز بیشتر با ارتباطات انسانی گره می خورن. این فناوری ها قدرت بخش ویژگی های تکمیل خودکاری هستن که در سرویس های ایمیل محبوب، برنامه های پیام رسان و واژه پردازها پیدا می شن. از اونجایی که این ابزارها دارن به بخشی استاندارد از زندگی روزمره تبدیل می شن، دانشمندان نگران پتانسیل اون ها در شکل دهی به شناخت انسان شدن.
مطالعات قبلی نشون دادن که هوش مصنوعی می تونه در طول تعاملات مستقیم، روی افراد تاثیر بذاره. این اتفاق زمانی می افته که یک برنامه، یک مقاله متقاعدکننده تولید می کنه یا مستقیما با یک کاربر درباره یک موضوع خاص بحث می کنه. با این حال، محققان می خواستن مسیر نامحسوس تری از تاثیرگذاری رو در محیط های دیجیتال ما بررسی کنن.
«دو مورد باعث شد من و تیمم این سؤال تحقیقاتی رو دنبال کنیم که آیا قرار گرفتن در معرض پیشنهادهای تکمیل خودکارِ جهت دارِ هوش مصنوعی می تونه نگرش کاربران رو در مورد مسائل اجتماعی تغییر بده یا نه.» این ها رو نویسنده مطالعه Sterling Williams-Ceci ، کاندیدای دکترا در دانشگاه کورنل و پژوهشگر پرزیدنتال مریل و رابرت اس. هریسون می گه.
«یکی این بود که ما توسط دستیاران نویسنده هوش مصنوعی احاطه شدیم که پیشنهادهای تکمیل خودکار رو در زمینه های مختلف (مثل جیمیل، گوگل داکس و شبکه های اجتماعی) ارائه می دن، اما مطالعات جداگانه نشون داده که متن های تولیدشده توسط این مدل ها می تونن نشون دهنده دیدگاه های دارای جهت گیری سیاسی باشن؛ در همین حال، تحقیقات قدیمی تر روانشناسی نشون داده که تغییر رفتار افراد از طریق نوشتارشون می تونه طرز فکرشون رو در مورد مسائل تغییر بده؛ مشابه این فرآیند در بررسی روان شناختی تاثیر عناوین جنجالی بر باور مخاطبان نیز مشاهده شده که چگونه محتوای متنی می تواند بر ذهنیت افراد اثر بگذارد، بنابراین ما مشکوک شدیم که این پیشنهادهای جهت دار هوش مصنوعی ممکنه از طریق همین مکانیسم باعث تغییر نگرش بشن.»
تصویر زیر به خوبی نشان دهنده تعامل میان ذهن انسان و الگوریتم های پردازش زبان است که چگونه در یک مسیر دوطرفه قرار می گیرند و بر یکدیگر اثر می گذارند.
![]()
این بازنمایی تصویری بر این نکته تاکید دارد که هوش مصنوعی دیگر صرفا یک ابزار ساده نیست، بلکه به بخشی از فرآیند تفکر و شکل گیری عقاید ما تبدیل شده است.
بررسی تاثیر هوش مصنوعی بر عقاید در آزمایشات
از اونجایی که میلیون ها نفر هر روز از همون مدل های پیش بینی متن استفاده می کنن، حتی یک تغییر جزئی در نظرات فردی می تونه پیامدهای اجتماعی گسترده ای داشته باشه. این موضوع اهمیت بررسی تاثیر هوش مصنوعی بر عقاید را دوچندان می کند. برای آزمایش این ایده، محققان دو آزمایش آنلاین در مقیاس بزرگ با شرکت 2582 نفر انجام دادن. اون ها یک برنامه نوشتاری اختصاصی ساختن که عملکردش خیلی شبیه به یک واژه پرداز استاندارد بود.
در هر دو آزمایش، از شرکت کننده ها خواسته شد تا یک مقاله کوتاه درباره یک موضوع بحث برانگیز بنویسن. در آزمایش اول که 1485 شرکت کننده داشت، همه در مورد استفاده از آزمون های استاندارد در آموزش نوشتن. برخی از شرکت کننده ها بدون هیچ کمکی نوشتن و به عنوان گروه کنترل عمل کردن.
به بقیه پیشنهادهای تکمیل خودکاری ارائه شد که توسط مدل هوش مصنوعی GPT-3.5 تولید شده بود. این پیشنهادها به طور خاص برنامه ریزی شده بودن تا از آزمون های استاندارد حمایت کنن. وقتی شرکت کننده ها تایپ می کردن، عبارت های کوتاهی با حدود 24 کلمه روی صفحه ظاهر می شد و کاربران می تونستن با زدن کلید Tab، اون ها رو در مقاله هاشون بپذیرن.
برای رد این احتمال که صرفا حضور اطلاعات جدید باعث تغییر عقیده شده، گروه سومی در آزمایش اول از ابزار تکمیل خودکار استفاده نکردن. در عوض، قبل از شروع نوشتن، لیستی ایستا از استدلال های برنامه هوش مصنوعی به اون ها نشون داده شد. بعد از انجام کار نوشتن، همه شرکت کننده ها یک نظرسنجی رو پر کردن که نظرات نهایی اون ها رو در مورد اون موضوع در کنار چندین موضوع حاشیه ای دیگه برای انحراف ذهن اندازه گیری می کرد.
سوالات انحرافی در روانشناسی برای پنهان کردن هدف واقعی یک مطالعه استفاده می شن. این کار از حدس زدن شرکت کننده ها درباره چیزی که دانشمندان به دنبالش هستن و تغییر غیرطبیعی پاسخ هاشون جلوگیری می کنه.
محققان دریافتن شرکت کننده هایی که از ابزار تکمیل خودکار جهت دار استفاده کردن، نگرش هایی رو گزارش دادن که به جهت گیری برنامه ریزی شده هوش مصنوعی نزدیک تر بود. این یافته ها نشان دهنده تاثیر هوش مصنوعی بر عقاید کاربران است. نظرات اون ها در مقایسه با گروه کنترل، تقریبا نیم امتیاز در یک مقیاس پنج امتیازی تغییر کرد. این تغییر حتی در بین تقریبا 30 درصد از شرکت کننده هایی که در واقع هیچ کدوم از کلمات پیشنهادی رو در مقاله های خودشون نپذیرفته بودن، اتفاق افتاد.
دانشمندان همچنین متوجه شدن که ویژگی تکمیل خودکارِ تعاملی نسبت به خوندن همون استدلال هایی که به صورت یک لیست ایستا ارائه شده بودن، تاثیر قوی تری داشت. این موضوع نشون می ده که تجربه منحصربه فردِ نوشتنِ مشترک با یک برنامه هوش مصنوعی، شکلی متمایز و قدرتمند از تاثیرگذاریه، و درک عمیق تر از تاثیر هوش مصنوعی بر عقاید را ممکن می سازد. این نشون می ده که عمل تایپ کردن در کنار برنامه، بیشتر از صرفا خوندن متن، به افکار ما شکل می ده.
ویلیامز-سِسی به PsyPost گفت: «دستیاران هوش مصنوعی که این پیشنهادهای تکمیل خودکار رو ارائه می دن، می تونن نوشتن رو برای ما آسون تر و سریع تر کنن، اما پیامدهایی هم دارن: اون ها نوع زبانی که استفاده می کنیم، موضوعاتی که در موردشون می نویسیم رو تغییر می دن و همون طور که اینجا نشون دادیم، می تونن طرز فکر واقعی ما رو هم در مورد مسائلی که درباره شون ارتباط برقرار می کنیم، تغییر بدن. این یافته ها اهمیت تاثیر هوش مصنوعی بر عقاید عمومی را برجسته می کند.
ما فهمیدیم که نگرش ها حتی با احتساب شرکت کننده هایی که در واقع پیشنهادها رو برای تکمیل نوشته شون نپذیرفته بودن هم تغییر کرده، بنابراین صرفِ قرار گرفتن در معرض پیشنهادها ممکنه کافی باشه، حتی اگر افراد در برابر استفاده از اون ها مقاومت کنن.»
در آزمایش دوم که شامل 1097 شرکت کننده بود، محققان نظرات پایه افراد رو هفته ها قبل از کار نوشتن واقعی اندازه گیری کردن. این کار به دانشمندان اجازه داد تا دقیقا ردیابی کنن که نگرش یک فرد چقدر در طول زمان تغییر کرده. شرکت کننده ها در این آزمایش به طور تصادفی برای نوشتن در مورد یکی از چهار موضوع تعیین شدن: مجازات اعدام، حق رای مجرمان، محصولات تراریخته یا استخراج گاز به روش شکست هیدرولیکی.
ابزار هوش مصنوعی، این بار با استفاده از مدل پیشرفته تر GPT-4، برنامه ریزی شده بود تا بسته به موضوع، پیشنهادهایی با تمایلات محافظه کارانه یا لیبرال ارائه بده. بار دیگه، محققان دریافتن که نگرش شرکت کننده ها از مواضع پایه اولیه اون ها به سمت دیدگاه جهت دار هوش مصنوعی تغییر کرده. گروه کنترل هیچ تغییری رو تجربه نکرد.
محقق عدم آگاهی رو در بین شرکت کننده ها مشاهده کرد. اکثریت افرادی که در معرض پیشنهادهای جهت دار قرار گرفته بودن، گفتن که هوش مصنوعی منطقی و متعادل بوده. اکثر شرکت کننده ها کاملا با این ایده که دستیار نویسنده روی تفکر یا استدلال های اون ها تاثیر گذاشته، مخالف بودن.
محققان حتی سعی کردن با هشدار صریح به شرکت کننده ها در مورد جهت گیری ابزار، این اثر رو در آزمایش دوم کاهش بدن. به برخی از افراد قبل از شروع نوشتن هشدار داده شد، در حالی که برخی دیگه بلافاصله بعد از اون در جریان قرار گرفتن. هیچ کدوم از این مداخلات، میزان تغییر نگرش شرکت کننده ها رو کاهش نداد.
ویلیامز-سِسی توضیح داد: «ما خیلی تعجب کردیم وقتی فهمیدیم هشدار دادن به مردم قبل از اینکه در معرض پیشنهادهای جهت دار هوش مصنوعی قرار بگیرن، نتونست تغییر نگرشی رو که نشون دادن تعدیل کنه. اولین آزمایش ما نشون داد که مردم اغلب جهت گیری در پیشنهادها یا تاثیر اون ها رو تشخیص نمی دادن، بنابراین ما در آزمایش دوم این فرضیه رو مطرح کردیم که صرفا آگاه کردن مردم از این واقعیت که پیشنهادها جهت گیری دارن، احتمال تاثیرپذیری اون ها رو کمتر می کنه.»
«ما همچنین این اثر تعدیل کننده رو به این دلیل فرض کردیم که مداخلات مشابه در ادبیات مربوط به پیشگیری از اطلاعات نادرست، موفقیت آمیز بوده. با این حال، در آزمایش دوم ما، نه هشدار دادن به مردم قبل از کار و نه توضیح دادن به اون ها بعد از کار، هیچ تاثیری در تغییر نگرشی که تجربه کردن نداشت.»
اگرچه این مطالعه شواهد قوی از این تاثیر پنهانی ارائه می ده، اما محدودیت هایی هم وجود داره که باید در نظر گرفت. این تحقیق فقط اثرات کوتاه مدت استفاده از یک دستیار نویسنده جهت دار رو اندازه گیری کرد. هنوز مشخص نیست که آیا این تغییر نگرش در طول هفته ها یا ماه ها باقی می مونه یا اینکه قرار گرفتن مکرر در معرض اون در یک دوره طولانی ممکنه اثر رو تشدید کنه یا نه.
ویلیامز-سِسی خاطرنشان کرد: «یک محدودیت که توجه به اون مهمه، اینه که آزمایش های ما برای تعیین یک مکانیسم شناختی خاص برای توضیح اینکه چرا نوشتن با پیشنهادهای جهت دار هوش مصنوعی نگرش افراد رو تغییر داده، طراحی نشده بود. ما می دونیم که این موضوع به این واقعیت مربوط می شه که این پیشنهادها باعث شده افراد درباره دیدگاه های خودشون به روش های جهت دارتری بنویسن – به دلیل تحقیقات روانشناسی که نشون می ده رفتار می تونه بر نگرش ها تاثیر بذاره –
اما توضیحات نظری متعددی وجود داشته که چرا دستکاری در نوشتار افراد می تونه نگرش اون ها رو تغییر بده.»
مکانیسم های احتمالی شامل «واکنش ناهماهنگی شناختیه که در اون افراد آگاهانه نگرش گزارش شده خودشون رو برای هماهنگی با چیزی که نوشته بودن تنظیم کردن، یا استدلال تئوری خودادراکی که افراد نگرش های واقعی خودشون رو از چیزی که نوشته بودن استنتاج کردن، یا حتی استدلال اسکن جهت دار که دیدگاه های جهت دار در حافظه فعال افراد دردسترس تر شده.»
ویلیامز-سِسی ادامه داد: «اگه تحقیقات آینده بتونن دلیل دقیق رخ دادن این تغییر نگرش رو مشخص کنن، اون وقت امیدواریم بتونیم مداخلاتی پیدا کنیم که در حفظ خودمختاری افراد مؤثرتر باشن و درک بهتری از تاثیر هوش مصنوعی بر عقاید ارائه دهند.»
«تیم ما علاقه منده در مورد مکانیسم پشت تغییر نگرش و همچنین راه های جلوگیری یا کاهش اون، بیشتر بدونه. این نگران کننده است که گفتن به مردم در مورد جهت گیری در پیشنهادهای هوش مصنوعی، به طور قابل اعتمادی میزان تاثیر رو کاهش نداد؛ ما کنجکاویم که آیا مردم نیاز دارن در همون لحظه و در کنار پیشنهادهای جهت دار با مداخلات مواجه بشن تا این مداخلات عمل کنن یا نه.»
مطالعه «دستیاران نویسنده هوش مصنوعیِ جهت دار، نگرش کاربران رو در مورد مسائل اجتماعی تغییر می دن ،» توسط استرلینگ ویلیامز-سِسی، موریس جاکش، ادوایت بهات، کووه کادوما، لیور زالمانسون و مور نعمان نوشته شده است.
در نهایت، آگاهی از نحوه تعامل ما با ابزارهای دیجیتال و هوش مصنوعی برای حفظ استقلال فکری ضروری است. این یافته ها نشان می دهند که تکنولوژی های زبانی فراتر از تسهیل امور، در حال بازنویسی بخشی از باورهای ما هستند و درک دقیق این تحولات می تواند به ما در مدیریت بهتر دنیای آینده کمک کند.
AI autocomplete suggestions covertly change how users think about important topics