پدیده خلاقیت یکسان هوش مصنوعی نشان می دهد که اتکای بیش از حد به مدل های زبانی بزرگ می تواند منجر به شباهت زیاد در ایده ها و کاهش تنوع در تولیدات خلاقانه نسبت به انسان ها شود.
یک مطالعه جدید که در PNAS Nexus منتشر شده نشون میده که هرچند چت بات های هوش مصنوعی می تونن در انجام کارهای خلاقانه فردی با انسان ها برابری کنن یا حتی ازشون جلو بزنن، اما وقتی پاسخ هاشون با همدیگه مقایسه میشه، نتایج خیلی شبیه به هم هستن. این پدیده که به عنوان خلاقیت یکسان هوش مصنوعی شناخته می شود، نشون میده که اتکای گسترده به هوش مصنوعی برای کارهای خلاقانه ممکنه باعث از بین رفتن ایده های منحصربه فرد بشه.
دانشمندان، امیلی ونگر و یوئد ان. کِنِت، این مطالعه رو برای درک این موضوع طراحی کردن که مدل های زبانی بزرگ چطور روی تنوع تفکر انسان تاثیر می ذارن. مدل های زبانی بزرگ همون تکنولوژی پشت چت بات های محبوب هوش مصنوعی هستن که متن رو بر اساس دستورات کاربر پیش بینی و تولید می کنن.
مدل های زبانی بزرگ برنامه های کامپیوتری پیچیده ای هستن که برای پردازش و تولید زبان انسانی طراحی شدن. توسعه دهنده ها این سیستم ها رو با آموزش دادن روی میلیاردها جمله از کتاب ها، مقالات و وب سایت ها می سازن. با تحلیل این حجم عظیم از متن، مدل ها الگوهای ریاضی و روابط بین کلمات رو یاد می گیرن.
وقتی کاربر به یک چت بات دستوری میده، مدل با محاسبه محتمل ترین کلمه بعدی در یک دنباله، کارش رو انجام میده. این مدل پاسخ ها رو کلمه به کلمه بر اساس قوانین و تداعی هایی که در مرحله آموزش یاد گرفته، می سازه. ونگر مشکوک بود که این روش آموزشی مشترک در سیستم های مختلف ممکنه باعث ایجاد یک مشکل بزرگ تر بشه.
ونگر، استادیار دانشکده کیو در دانشگاه دوک، گفت: «بیشتر مدل های زبانی بزرگ امروزی روی مجموعه داده های عظیمی از اطلاعات استخراج شده از اینترنت آموزش دیدن؛ این یعنی در عمل همه اون ها تقریبا روی داده های یکسانی آموزش دیدن. تحقیقات سنتی یادگیری ماشین نشون داده که آموزش مدل ها روی یک مجموعه داده مشابه منجر به مدل هایی با ویژگی های شبیه به هم میشه. من کنجکاو بودم ببینم آیا این پدیده در مدل های تجاری هم اتفاق می افته و پیامدهاش چی می تونه باشه.»
تحلیل خلاقیت یکسان هوش مصنوعی در چت بات ها
تحقیقات نشان می دهد که استفاده از مدل های زبانی بزرگ می تواند به تدریج باعث یکنواختی در خروجی های ذهنی شود. تصویر زیر این چالش را به خوبی نمایش می دهد.
![]()
این تصویر به بررسی آماری چگونگی محدود شدن تنوع پاسخ ها در مدل های هوش مصنوعی می پردازد.
برای بررسی این موضوع، محققان 102 شرکت کننده انسانی رو از طریق Prolific (یک پلتفرم آنلاین برای تحقیقات نظرسنجی) جذب کردن. اون ها شرکت کنندگان انسانی رو غربالگری کردن تا مطمئن بشن ربات نیستن و همه تست های اولیه توجه رو پشت سر گذاشتن. همچنین 22 مدل زبانی مختلف از شرکت های مختلف، از جمله چت بات های معروف گوگل، متا و OpenAI رو انتخاب کردن.
هم انسان ها و هم مدل های زبانی سه وظیفه استاندارد خلاقیت کلامی رو انجام دادن. اولین مورد «تست استفاده های جایگزین» بود که از شرکت کنندگان می خواست تا جایی که می تونن برای اشیاء روزمره مثل چنگال، کتاب یا یک جفت شلوار، کاربردهای خلاقانه لیست کنن. این ارزیابی تفکر واگرا رو آزمایش می کنه، یعنی توانایی تولید چندین راهکار منحصربه فرد برای یک مسئله واحد.
ارزیابی دوم تست «جریان رو به جلو» بود که تفکر تداعی گر رو اندازه گیری می کنه. شرکت کنندگان یک کلمه شروع مثل «برف» یا «شمع» دریافت می کنن و باید زنجیره ای از حداکثر 20 کلمه بعدی رو که به طور طبیعی به ذهنشون می رسه، ارائه بدن. تفکر تداعی گر به افراد کمک می کنه تا در حافظه شون جستجو کنن و مفاهیم مختلف رو با هم ترکیب کرده و ایده های جدید بسازن.
آخرین ارزیابی «تست تداعی واگرا» بود. این تمرین از شرکت کنندگان می خواست 10 اسم تولید کنن که تا حد ممکن با هم نامرتبط باشن. تولید کلمات نامرتبط نشون دهنده یک انعطاف پذیری شناختیه که به شدت با توانایی های خلاقانه در انسان ها مرتبطه.
دانشمندان سپس از ابزارهای محاسباتی تحلیل متن برای ارزیابی پاسخ ها استفاده کردن. این ابزارها کلمات رو در یک فضای ریاضی قرار می دن تا فاصله معنایی بین اون ها رو اندازه بگیرن؛ این کار محاسبه می کنه که کلمات و مفاهیم چقدر با هم تفاوت دارن. محققان هم اصالت فردی یک پاسخ واحد و هم تنوع کلی بین تمام پاسخ های یک گروه رو اندازه گیری کردن.
محققان دریافتند که مدل های زبانی در اکثر کارها در سطح یک انسان معمولی یا کمی بالاتر از اون عمل کردن. وقتی یک پاسخ به صورت جداگانه بررسی می شد، چت بات ها پاسخ های بسیار اصیلی ارائه می دادن. با این حال، وقتی دانشمندان تمام پاسخ های مدل های مختلف رو با هم مقایسه کردن، الگویی از شباهت ظاهر شد.
در تمام کارها، پاسخ هایی که مدل ها تولید کردن به طور قابل توجهی شبیه تر از پاسخ های انسان ها بود. چت بات ها مکررا به واژگان همپوشان مشابهی متکی بودن که باعث می شد خروجی های خلاقانه اون ها به شکلی کاملا یکنواخت در یک دسته قرار بگیرن. این شباهت زمانی که محققان مدل های ساخته شده توسط یک شرکت رو با هم مقایسه کردن، حتی بیشتر هم بود.
آیا خلاقیت یکسان هوش مصنوعی اجتناب ناپذیر است؟
«فرضیه من این بود که تا حدی همگنی بین پاسخ های مدل ها نسبت به انسان ها وجود داشته باشه، اما از میزان اون غافلگیر شدم.»
ونگر و کنت همچنین آزمایش کردن که آیا می تونن مدل ها رو مجبور کنن متنوع تر باشن یا نه. اون ها تنظیمات «دما» (Temperature) رو در مدل ها تغییر دادن؛ مکانیزمی که سطح تصادفی بودن رو در فرآیند تولید متن کنترل می کنه. دماهای پایین متن های بسیار قابل پیش بینی تولید می کنن، در حالی که دماهای بالا انتخاب کلمات تصادفی بیشتری رو وارد می کنن.
در حالی که افزایش تصادفی بودن باعث شد پاسخ ها متنوع تر بشن، اما خیلی زود باعث شد مدل ها چرت و پرت های بی معنی تولید کنن. این پاسخ های تصادفی دیگه الزامات اولیه دستورات خلاقانه رو برآورده نمی کردن. خلاقیت واقعی مستلزم اینه که یک ایده هم جدید باشه و هم برای موقعیت مناسب باشه، بنابراین تولید چرت و پرت به عنوان یک خروجی خلاقانه موفق محسوب نمیشه.
محققان همچنین سعی کردن دستورالعمل های اولیه ای که به مدل ها داده می شد رو تغییر بدن. اون ها صراحتا به چت بات ها دستور دادن که به عنوان دستیاران خلاق عمل کنن و پاسخ های جسورانه و خارج از چارچوب بدن. این کار اصالت فردی رو کمی بهبود بخشید اما در رفع مشکل بزرگ تر یعنی یکنواختی کاملا شکست خورد، چون مدل ها هنوز پاسخ هایی شبیه به هم تولید می کردن.
این یافته ها نشون میده که اتکا به هوش مصنوعی مولد برای طوفان فکری یا حل مسئله می تونه دامنه خلاقیت انسان رو محدود کنه. اگر همه از این ابزارها برای نوشتن پیش نویس یا تولید ایده استفاده کنن، ممکنه جامعه شاهد محدود شدن شدید مفاهیم باشه. این محدودیت، مشکل خلاقیت یکسان هوش مصنوعی را برجسته می کند.
«اگه از چت بات های هوش مصنوعی (که بر پایه مدل های زبانی بزرگ ساخته شدن) برای کارهای خلاقانه استفاده می کنید، بدونید که نتایجی که از این مدل ها می گیرید احتمالا خیلی شبیه به نتایجی خواهد بود که شخص دیگه ای از یک چت بات می گیره، حتی اگه اون چت بات با مال شما متفاوت باشه. اگه می خواید محتوای شما واقعا منحصربه فرد باشه، احتمالا بهتره از چت بات های هوش مصنوعی برای تولیدش استفاده نکنید.» این موضوع به وضوح نشان می دهد که چالش خلاقیت یکسان هوش مصنوعی چقدر جدی است.
محققان به برخی سوءتعبیرها و محدودیت های احتمالی کارشون اشاره کردن. این مطالعه فقط عملکرد رو در کارهای خاص خلاقیت کلامی اندازه گیری کرده، به این معنی که نتایج ممکنه برای همه انواع رفتارهای خلاقانه صدق نکنه. برای مثال، مدل های زبانی ممکنه موقع انجام کارهای غیرکلامی عمومی مثل نقاشی یا آهنگسازی، همون یکنواختی رو نشون ندن.
علاوه بر این، دانشمندان فقط مدل های تجاری موجود رو آزمایش کردن که برای پیروی از دستورالعمل های سخت گیرانه ایمنی و مکالمه برنامه ریزی شدن. هرچند نگرش عمومی به هوش مصنوعی مثبت است، اما مشخص شده که این آموزش های ایمنی روی رفتار مدل ها در محیط های آزمایشی تاثیر می ذاره. ممکنه مدل های خام و تنظیم نشده ویژگی های خلاقانه متفاوتی رو نشون بدن، هرچند بیشتر کاربران عادی به این نسخه های خام دسترسی ندارن.
تحقیقات آینده باید ابعاد دیگه خلاقیت مثل «روانی» و «انعطاف پذیری» رو به جای فقط اصالت بررسی کنن. روانی به تعداد ایده های تولید شده اشاره داره، در حالی که انعطاف پذیری به تنوع دسته بندی هایی که اون ایده ها پوشش می دن برمی گرده. دانشمندان همچنین امیدوارن میزان این یکنواختی رو در انواع دیگه هوش مصنوعی بررسی کنن و راهکارهای مهندسی احتمالی رو برای کاهش این مشکل پیدا کنن. یافتن راهکارهایی برای کاهش خلاقیت یکسان هوش مصنوعی می تواند به توسعه ابزارهای مولد خلاقیت واقعی کمک کند.
این مطالعه که به بررسی پدیده خلاقیت یکسان هوش مصنوعی می پردازد، با عنوان «مدل های زبانی بزرگ به شکلی یکنواخت خلاق هستند» توسط امیلی ونگر و یوئد ان. کِنِت نوشته شده است.
در نهایت، درک محدودیت های فعلی ابزارهای هوش مصنوعی به ما کمک می کند تا مرز بین نوآوری انسانی و تولیدات ماشینی را بهتر بشناسیم. حفظ تفکر منحصربه فرد و واگرا در عصر دیجیتال، نیازمند آگاهی از خطرات یکنواختی و تلاش برای فراتر رفتن از الگوهای ریاضی است که این مدل ها بر پایه آن ها بنا شده اند.
Scientists tested the creativity of AI models, and the results were surprisingly homogeneous