خانه تازه‌های علم و تحقیق تحلیل تأثیر زبان بر پاسخ هوش مصنوعی و تفاوت های فرهنگی در خروجی مدل ها
تحلیل تأثیر زبان بر پاسخ هوش مصنوعی و تفاوت های فرهنگی در خروجی مدل ها

تحلیل تأثیر زبان بر پاسخ هوش مصنوعی و تفاوت های فرهنگی در خروجی مدل ها

در این مقاله:

یک مطالعه جدید که در Nature Human Behaviour منتشر شده، شواهدی رو ارائه می ده که نشون میده مدل های هوش مصنوعی مولد بسته به زبانی که باهاشون بهشون دستور (پرامپت) داده می شه، گرایش های فرهنگی متفاوتی از خودشون نشون می دن. این تحقیق نشون می ده که استفاده از زبان چینی باعث می شه هوش مصنوعی پاسخ هایی رابطه محورتر و آگاه به شرایط تولید کنه، در حالی که استفاده از زبان انگلیسی منجر به خروجی های فردگرایانه تر و تحلیلی تر می شه. این یافته ها به این معنی هستن که هوش مصنوعی یک ابزار خنثی از نظر فرهنگی نیست و ممکنه به شکلی نامحسوس، بر اساس بافتار زبانی، روی تصمیم گیری کاربر تاثیر بذاره. این مقاله به بررسی عمیق تاثیر زبان بر پاسخ هوش مصنوعی می پردازد.

هوش مصنوعی مولد به دسته ای از فناوری ها گفته می شه که می تونن با شناسایی الگوها در حجم عظیمی از داده های موجود، محتوای جدیدی مثل متن و تصویر تولید کنن. پلتفرم هایی مثل جمینای گوگل (Gemini)، چت جی پی تی OpenAI و بات ERNIE شرکت بایدو، به سرعت در سطح جهان برای انجام کارهایی از کمک در نوشتن گرفته تا مشاوره گرفتن، مورد استفاده قرار گرفتن.

«انگیزه این مطالعه از یک تضاد ساده اما اغلب نادیده گرفته شده در مورد درک ما از هوش مصنوعی مولد در مقابل نحوه ساخت اون شکل گرفت. اغلب تصور می شه که مدل های هوش مصنوعی مولد از نظر فرهنگی خنثی هستن و اساسا پاسخ های مشابهی رو در زبان های مختلف تولید می کنن،» این ها رو نویسنده مطالعه جکسون جی. لو (Jackson G. Lu)، دانشیار دانشگاه MIT Sloan، توضیح داد.

«با این حال، این مدل ها روی داده های متنی در مقیاس بزرگ آموزش دیدن که ذاتا ماهیت فرهنگی دارن. این موضوع یک سوال بررسی نشده رو به وجود میاره: اینکه آیا وقتی به یک مدل واحد با زبان های انسانی مختلف پرامپت داده می شه، گرایش های فرهنگی سیستماتیکی در اون ظاهر می شه یا نه.»

«این سوال مهمه چون هوش مصنوعی مولد الان دیگه با زندگی روزمره ما عجین شده. اگه تفاوت های فرهنگی در خروجی های هوش مصنوعی نادیده گرفته بشن، ممکنه روی نگرش ها و انتخاب های کاربران در مقیاس وسیع تاثیر بذارن. ما با ترکیب بینش های روان شناسی فرهنگی با تحقیقات هوش مصنوعی مولد و بررسی علل محبوبیت اخبار بی کیفیت در فضای مجازی، نشون می دیم که یک مدل هوش مصنوعی مولد واحد، وقتی با زبان چینی در مقابل انگلیسی ازش سوال می شه، تفاوت های سیستماتیکی رو نشون می ده. این تفاوت ها مستقیما بر تاثیر زبان بر پاسخ هوش مصنوعی دلالت دارند.»

بررسی تاثیر زبان بر پاسخ هوش مصنوعی؛ رویکردهای فرهنگی

محققان برای چارچوب بندی تحقیق خودشون روی دو مفهوم بنیادی در روان شناسی فرهنگی تمرکز کردن: جهت گیری اجتماعی و سبک شناختی. جهت گیری اجتماعی توصیف می کنه که یک فرد تا چه حد به «خود» در مقابل «گروه» اولویت می ده. جهت گیری اجتماعی مستقل که در فرهنگ های غربی رایجه، روی اهداف شخصی و منحصر به فرد بودن تاکید داره. در مقابل، جهت گیری اجتماعی وابسته که در فرهنگ های شرق آسیا رایجه، روی هنجارهای اجتماعی، هماهنگی و ارتباط با دیگران تاکید می کنه.

سبک شناختی به این موضوع اشاره داره که افراد به طور عادت گونه چطور اطلاعات رو پردازش می کنن. یک سبک شناختی تحلیلی تمایل داره روی اشیاء خاص تمرکز کنه و از منطق رسمی برای توضیح رفتارها بر اساس ویژگی های درونی استفاده کنه. یک سبک شناختی کل نگر (هولستیک) توجه بیشتری به بافتار و روابط بین اشیاء داره و بیشتر بر استدلال دیالکتیکی و توضیحات موقعیتی تکیه می کنه. محققان این فرضیه رو مطرح کردن که مدل های هوش مصنوعی که روی زبان های پرکاربردی مثل انگلیسی و چینی آموزش دیدن، گرایش های فرهنگی متمایز مرتبط با اون گروه های زبانی رو منعکس می کنن.

برای آزمایش این فرضیه، تیم تحقیق دو مدل محبوب هوش مصنوعی مولد رو بررسی کردن: GPT-4 و ERNIE 3.5. اونا برای اطمینان از شرایط تست یکسان، از طریق رابط های برنامه نویسی (API) به این مدل ها دسترسی پیدا کردن. محققان مطالعه رو با اجرای معیارهای روان شناختی یکسان به هر دو زبان انگلیسی و چینی انجام دادن. برای هر معیار، اونا 100 بار در انگلیسی و 100 بار در چینی آزمایش رو تکرار کردن که در مجموع 200 پاسخ برای هر کار به دست اومد. اونا سیستم رو بین هر تکرار بازنشانی (Reset) کردن تا پاسخ های قبلی روی پاسخ های بعدی تاثیر نذاره.

اولین مجموعه از آزمایش ها، جهت گیری اجتماعی رو با استفاده از مقیاس های روان شناختی معتبر اندازه گیری کرد. یکی از معیارهای کلیدی، «مقیاس گنجاندن دیگران در خود» بود که یک کار بصریه. محققان از هوش مصنوعی خواستن جفتی از دایره ها رو انتخاب کنه که به بهترین شکل نشان دهنده رابطه بین یک فرد و اطرافیان مختلفش، مثل اعضای خانواده یا همکاران باشه. گزینه ها از دایره هایی که کاملا جدا بودن تا دایره هایی که تقریبا به طور کامل روی هم قرار داشتن، متغیر بود.

نتایج الگوی ثابتی رو در هر دو مدل GPT و ERNIE نشون داد. وقتی پرامپت ها به زبان چینی داده می شد، مدل ها جفت دایره هایی با همپوشانی بیشتر رو انتخاب می کردن. این نشون دهنده درجه بالاتری از وابستگیه، جایی که «خود» در پیوند با دیگران دیده می شه. وقتی پرامپت ها به انگلیسی بود، مدل ها دایره هایی با همپوشانی کمتر رو انتخاب می کردن که نشان دهنده جهت گیری مستقل بود که در اون «خود» متمایز باقی می مونه. این یافته در مقیاس های متنی لیکرت که جمع گرایی و فردگرایی رو اندازه گیری می کردن هم تکرار شد.

دومین مجموعه از آزمایش ها، سبک شناختی رو از طریق سه کار مشخص ارزیابی کرد. اولی یک کار مربوط به سوگیری اسناد بود که در اون هوش مصنوعی داستان های کوتاهی درباره رفتار افراد می خوند. از مدل ها خواسته شد امتیاز بدن که چقدر این رفتار ناشی از شخصیت فرد بوده و چقدر ناشی از محیط. در زبان چینی، هوش مصنوعی بیشتر تمایل داشت اعمال رو به موقعیت نسبت بده که با تفکر کل نگر همخوانی داره. در انگلیسی، هوش مصنوعی اعمال رو بیشتر به ویژگی های فردی نسبت داد که با تفکر تحلیلی همسو هست. این یافته ها اهمیت تاثیر زبان بر پاسخ هوش مصنوعی در تحلیل های شناختی را برجسته می کند.

کار دیگه شامل ارزیابی قیاس های منطقی بود که از نظر منطقی درست اما از نظر شهودی غیرقابل باور بودن. مثلا هوش مصنوعی این فرض رو ارزیابی کرد که «همه چیزهایی که از گیاهان ساخته شدن سالم هستن» و «سیگار از گیاهان ساخته شده»، پس نتیجه می گیریم که «سیگار سالم است». در حالی که بر اساس فرض ها این نتیجه منطقیه، اما با دانش واقعی ما در تضاد هست.

محققان متوجه شدن که وقتی از زبان چینی استفاده می شه، هوش مصنوعی بیشتر تمایل داره اعتبار منطقی رو بر اساس شهود رد کنه. اما در زبان انگلیسی، هوش مصنوعی با وجود نتیجه گیری خلاف واقع، تمایل بیشتری به پذیرش منطق رسمی داشت.

محققان همچنین انتظار تغییر رو اندازه گیری کردن. اونا از هوش مصنوعی خواستن احتمال رویدادهای آینده رو تخمین بزنه، مثلا اینکه آیا دو کودک مهدکودکی که با هم دعوا می کنن ممکنه در بزرگسالی عاشق هم بشن یا نه. پاسخ های چینی به طور مداوم احتمالات بالاتری رو برای چنین تغییراتی در نظر می گرفتن که منعکس کننده دیدگاه کل نگر به دنیا به عنوان یک محیط پویا و سیاله. پاسخ های انگلیسی ثبات بیشتری رو پیش بینی کردن که نشان دهنده دیدگاه تحلیلیه که در اون وضعیت های فعلی تمایل به تداوم دارن.

لو به PsyPost گفت: «بزرگی آماری این اثرات با استانداردهای علوم رفتاری، متوسط تا بزرگ محسوب می شه. این اندازه اثرها نشون دهنده تفاوت های معنادار و سیستماتیک در پاسخ های هوش مصنوعی در زبان های مختلفه. در عمل، این اثرات اون قدر قابل توجه هستن که می تونن روی توصیه های بعدی و تصمیم گیری های دنیای واقعی تاثیر بذارن. این خود نشانه ای از تاثیر زبان بر پاسخ هوش مصنوعی است.»

تیم تحقیق علاوه بر نمرات عددی، ساختار متنی پاسخ های هوش مصنوعی رو هم تحلیل کرد. اونا به دنبال پاسخ های حساس به بافتار بودن، یعنی جایی که هوش مصنوعی پیشنهاد می ده پاسخ «درست» به موقعیت خاص بستگی داره. اونا همچنین به دنبال مواردی بودن که هوش مصنوعی به جای یک عدد واحد، محدوده ای از نمرات رو ارائه داده بود. تحلیل ها نشون داد که پرامپت های چینی به طور قابل توجهی پاسخ های حساس به بافتار و محدوده های نمره بیشتری رو ایجاد کردن. این موضوع از این ایده حمایت می کنه که زبان چینی سبک پردازش کل نگرتر رو فعال می کنه که ابهام و پیچیدگی رو راحت تر می پذیره.

تعدیل و کنترل تاثیر زبان بر پاسخ هوش مصنوعی

برای نشون دادن پیامدهای عملی این گرایش ها، محققان آزمایشی شامل توصیه های تبلیغاتی انجام دادن. اونا از هوش مصنوعی خواستن بهترین شعار تبلیغاتی رو برای محصولاتی مثل بیمه و مسواک انتخاب کنه. گزینه ها شامل شعارهایی با تم های مستقل (تمرکز روی مزایای شخصی) و تم های وابسته (تمرکز روی رفاه خانواده) بود.

محققان متوجه یک تفاوت در توصیه ها بر اساس زبان شدن. وقتی درخواست به زبان چینی بود، هوش مصنوعی به احتمال زیاد شعارهایی رو توصیه می کرد که بر مزایای جمعی و محافظت از خانواده تاکید داشتن. وقتی همین درخواست به زبان انگلیسی انجام می شد، هوش مصنوعی شعارهایی رو پیشنهاد می داد که آرامش خاطر فردی و سود شخصی رو برجسته می کردن. این نشون می دهد زبانی که برای مشورت با یک هوش مصنوعی استفاده می شه، می تونه مستقیما مشاوره استراتژیکی که اون ارائه می ده رو تغییر بده و تاثیر زبان بر پاسخ هوش مصنوعی را در عمل نشان می دهد.

محققان همچنین بررسی کردن که آیا کاربران می تونن به طور دستی این پیش فرض های فرهنگی رو تنظیم کنن یا نه. اونا مجموعه ای از آزمایش های اضافی رو با استفاده از پرامپت های انگلیسی انجام دادن اما یک نشانه فرهنگی خاص رو بهش اضافه کردن: «شما یک فرد معمولی هستید که در چین متولد شده و زندگی می کنید.» اضافه کردن همین یک جمله، خروجی های هوش مصنوعی رو به طرز قابل توجهی تغییر داد. پاسخ های انگلیسی وابسته تر و کل نگرتر شدن و شباهت زیادی به نتایجی پیدا کردن که معمولا با پرامپت های چینی تولید می شدن. این نشون می دهد که اگه کاربران از سوگیری های فرهنگی آگاه باشن، می تونن با استفاده از دستورالعمل های شخصیتی (persona) خاص، اون ها رو تعدیل کنن.

لو گفت: «نکته اصلی اینه که هوش مصنوعی از نظر فرهنگی خنثی نیست. یک هوش مصنوعی واحد بسته به زبانی که استفاده می کنید، می تونه پاسخ های متفاوتی بده؛ به طوری که انگلیسی منجر به پاسخ های فردمحورتر و تحلیلی تر می شه و چینی منجر به پاسخ های رابطه محورتر و آگاه به شرایط می شه.»

«این تفاوت ها می تونن در توصیه ها و مشاوره های روزمره تولید شده توسط هوش مصنوعی ظاهر بشن، به این معنی که هوش مصنوعی ممکنه بدون اینکه متوجه بشیم، به آرامی طرز فکر و تصمیم گیری مردم رو شکل بده. خبر خوب اینه که کاربران تا حدی کنترل دارن: با انتخاب دقیق زبان یا اضافه کردن نشانه های فرهنگی ساده، مردم می تونن هوش مصنوعی رو به سمتی هدایت کنن که پاسخ هایی متناسب با بافتار فرهنگی موقعیت مورد نظرشون بده. این کنترل اهمیت تاثیر زبان بر پاسخ هوش مصنوعی را تایید می کند.»

چند محدودیت هم وجود داره که باید در نظر گرفت. این مطالعه محدود به زبان های انگلیسی و چینی بود، بنابراین یافته ها ممکنه به زبان های دیگه مثل اسپانیایی، هندی یا عربی قابل تعمیم نباشه. محققان پیشنهاد می کنن که در کارهای آینده بررسی بشه که آیا الگوهای مشابه در سایر مدل های زبانی بزرگ و در طیف وسیع تری از زبان ها هم وجود داره یا نه.

محققان همچنین اشاره می کنن که مدل های هوش مصنوعی دارای یک هویت فرهنگی واقعی نیستن؛ اونا الگوهای آماری موجود در داده های آموزشی خودشون رو بازتولید می کنن.

لو گفت: «اولا، ما نمی گیم که هوش مصنوعی مولد مثل انسان ها فرهنگ رو “دارا” هست. در عوض، گرایش های فرهنگی که ما مشاهده می کنیم، احتمالا منعکس کننده الگوهای فرهنگی دنیای واقعی هستن که در داده های متنی عظیمی که این مدل ها روی اونا آموزش دیدن، نهفته هستن. دوما، یافته های ما بر اساس دو مدل خاص gpt-4-1106-preview و ERNIE-3.5-8K-0205 هست. در حالی که انتظار داریم الگوهای مشابه به طور گسترده تری ظاهر بشن، خوانندگان باید در تعمیم دادن نتایج به سایر مدل های هوش مصنوعی مولد یا نسخه های مختلف مدل ها محتاط باشن.»

در آینده، محققان قصد دارن پیامدهای عملی این تعاملات رو بیشتر بررسی کنن. لو توضیح داد: «هدف بلندمدت ما اینه که بفهمیم ورودی های کاربر چطور به پاسخ های هوش مصنوعی مولد شکل می دن و این تفاوت ها در پاسخ دهی چطور به نتایج رفتاری و سازمانی در دنیای واقعی تبدیل می شن. درک عمیق تر تاثیر زبان بر پاسخ هوش مصنوعی برای آینده این فناوری حیاتی است.»

مطالعه «گرایش های فرهنگی در هوش مصنوعی مولد»، توسط جکسون جی. لو، لسلی لویانگ سانگ و لو دوریس ژانگ نوشته شده است.

در نهایت، آگاهی از سوگیری های زبانی و فرهنگی در هوش مصنوعی به کاربران و توسعه دهندگان این امکان را می دهد تا با درک بهتری از ابزارهای دیجیتال استفاده کنند. این یافته ها نشان دهنده لزوم دقت در انتخاب زبان و بافتار در تعامل با مدل های بزرگ زبانی است تا خروجی های دریافت شده، با نیازها و ارزش های مورد نظر کاربر همخوانی بیشتری داشته باشد.

A simple language switch can make AI models behave significantly different

نویسنده:
تاریخ بروزرسانی: ژانویه 23, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما