خانه تازه‌های علم و تحقیق آسیب هوش مصنوعی به روان؛ یافته های جدید درباره تشدید علائم روان پزشکی توسط چت بات ها
آسیب هوش مصنوعی به روان؛ یافته های جدید درباره تشدید علائم روان پزشکی توسط چت بات ها

آسیب هوش مصنوعی به روان؛ یافته های جدید درباره تشدید علائم روان پزشکی توسط چت بات ها

در این مقاله:

تحقیقات جدید نشان می دهد که تعامل با چت بات های پیشرفته می تواند باعث تشدید بیماری های روانی، تقویت هذیان ها و افکار خودآزاری شود که به وضوح نشان دهنده آسیب هوش مصنوعی به روان در افراد آسیب پذیر است.

چت بات های هوش مصنوعی مولد ممکنه علائم بعضی از افرادی که شرایط سلامت روان شدیدی دارن رو بدتر کنن. یه تحلیل جدید روی هزاران پرونده سلامت بیمار نشون می ده مواردی وجود داشته که تعامل با این برنامه ها باعث تقویت باورهای غلط، تشویق به خودآزاری یا تشدید اختلالات خوردن شده، که به نوعی نشان دهنده آسیب هوش مصنوعی به روان افراد است. این یافته ها اخیرا در مجله Acta Psychiatrica Scandinavica منتشر شده اند.

بررسی اولیه؛ ابعاد آسیب هوش مصنوعی به روان

این تحقیق توسط سورن دینسن اوسترگارد (Søren Dinesen Østergaard)، استاد و روان پزشکی که مدیریت یک واحد تحقیقاتی در بیمارستان دانشگاه آرهوس دانمارک رو بر عهده داره، رهبری شده. اون با سیدسه گودسکه اولسن و کریستین جون راینکه-تلفسن همکاری کرده که هر دو محققای وابسته به دانشگاه آرهوس و بخش روان پزشکی بیمارستان هستن. اونا با بررسی رابطه پیچیده هوش مصنوعی و روان انسان می خواستن بررسی کنن که ابزارهای دیجیتال مدرن چطوری روی جمعیت های آسیب پذیر در یک محیط بالینی واقعی تاثیر می ذارن.

برنامه های هوش مصنوعی مثل ChatGPT به ساختارهای زیربنایی به نام مدل های زبانی بزرگ متکی هستن. این ها سیستم های ریاضی عظیمی هستن که روی حجم وسیعی از متن های اینترنت آموزش دیدن. وقتی کسی یه پیام می نویسه، سیستم مثل یه موتور آماری غول پیکر عمل می کنه و محتمل ترین کلمه بعدی رو محاسبه می کنه تا یه پاسخ خیلی روان تولید کنه.

چون این مکالمه ها خیلی طبیعی به نظر می رسن، خیلی از مردم طوری با این نرم افزار برخورد می کنن که انگار یه موجود هوشمنده. این موضوع می تونه باعث یه حس اعتماد کاذب بشه، مخصوصا چون این مدل ها اغلب طوری برنامه ریزی شدن که خیلی موافق و همسو با کاربر باشن. برای اینکه کاربرها رو درگیر نگه دارن، نرم افزار به پاسخ هایی که باعث خوشحالی انسان می شه پاداش می ده، که گاهی اوقات به معنای تکرار کردن همون جهان بینی کاربر به خودشه.

در زمینه روان پزشکی، هذیان به عنوان یک باور ثابت و غلط تعریف می شه که فرد با وجود شواهد واضح بر خلاف اون، همچنان بهش باور داره. اگه کسی باور داشته باشه که فرستاده الهیه یا مخفیانه تحت نظره، یه چت بات همسو ممکنه به جای به چالش کشیدن، اون ایده رو تایید کنه. اوسترگارد قبلا هشدار داده بود که این پویایی می تونه باعث ایجاد یا بدتر شدن روان پریشی در افراد مستعد بشه و به عنوان ابزاری قدرتمند برای تایید باورهای غلط عمل کنه، که در نهایت به آسیب هوش مصنوعی به روان منجر می شود.

قبل از این مطالعه اخیر، بیشتر شواهد این پدیده از گزارش های رسانه ای و انجمن های آنلاین به دست اومده بود. مقالات خبری موقعیت هایی رو توصیف می کردن که در اون افراد جلسات چت طولانی مدت داشتن و با همراهان دیجیتال خودشون دچار توهمات مذهبی یا توطئه های بزرگ می شدن. یک مورد که گزارش های زیادی هم درباره ش منتشر شد، مربوط به مردی بود که روزانه تا 16 ساعت با یه برنامه صحبت می کرد و در نهایت به این باور رسیده بود که داره در یک واقعیت شبیه سازی شده زندگی می کنه.

محققان می خواستن فراتر از داستان های خبری برن تا ببینن آیا این مشکل در یک محیط پزشکی حرفه ای هم دیده می شه یا نه. اونا شروع به جستجو در یادداشت های بالینی یک سیستم مراقبت های بهداشتی منطقه ای کردن. اونا پرونده های خدمات روان پزشکی منطقه مرکزی دانمارک رو بررسی کردن که خدمات بستری، سرپایی و اورژانسی رو برای حدود 1.4 میلیون ساکن فراهم می کنه.

این تیم پرونده های الکترونیک سلامت نزدیک به 54,000 بیمار رو که بین شهریور 1401 تا خرداد 1404 تحت درمان بودن، جمع آوری کردن. در طول این بازه زمانی تقریبا سه ساله، کادر پزشکی بیش از ده میلیون یادداشت بالینی رو در پایگاه داده منطقه ای وارد کرده بودن. محققان بعدش این مجموعه عظیم متنی رو برای پیدا کردن هرگونه اشاره ای به برنامه های هوش مصنوعی اسکن کردن.

برای اینکه مطمئن بشن تا جای ممکن موارد زیادی رو پیدا کردن، دنبال کلمات «چت بات» و «ChatGPT» در کنار 20 غلط املایی رایج گشتن. اونا در واقع این لیست از غلط های املایی رو با پرسیدن از خودِ ChatGPT تهیه کردن که کاربرای انسانی معمولا اسمش رو چطوری اشتباه تایپ می کنن. این کار بهشون اجازه داد غلط های تایپی مثل «chatboot»، «ChatGBT» و «ChatJPT» رو در یادداشت های پزشکان پیدا کنن.

این بررسی اولیه 181 یادداشت پزشکی خاص متعلق به 126 بیمار رو نشون داد. بعدش اولسن و راینکه-تلفسن به طور مستقل این یادداشت ها رو خوندن تا زمینه عادت های تکنولوژیک بیماران رو درک کنن. اونا دنبال نشانه هایی بودن که نشون بده تعاملات دیجیتال در بروز علائم روان شناختی نقش داشته.

وقتی این دو محقق در مورد نحوه تفسیر یک یادداشت اختلاف نظر داشتن، تا زمانی که به اجماع برسن در مورد اون مورد بحث می کردن. از بین گروه اولیه، اونا 38 بیمار رو شناسایی کردن که پیامدهای بالقوه مضری در رابطه با استفاده از ابزارهای دیجیتال تجربه کرده بودن. این موارد شواهدی از آسیب هوش مصنوعی به روان را نشان می داد. رایج ترین نتیجه منفی، بدتر شدن هذیان ها بود که در 11 مورد اتفاق افتاده بود.

موارد خاص؛ تایید آسیب هوش مصنوعی به روان در بیماران

اوسترگارد در یک بیانیه مطبوعاتی می گه: «چت بات های هوش مصنوعی تمایل ذاتی به تایید باورهای کاربر دارن. واضحه که اگه کاربری از قبل هذیان داشته باشه یا در حال شکل گیری اون باشه، این موضوع خیلی مشکل ساز می شه.»

بیماران دیگه انواع کاملا متفاوتی از آسیب رو تجربه کردن. این یافته ها تاکید می کنند که آسیب هوش مصنوعی به روان می تواند اشکال مختلفی داشته باشد. تیم تحقیق 6 مورد رو پیدا کرد که در اون برنامه ها باعث بدتر شدن افکار خودکشی شده بودن یا بیماران از نرم افزار در مورد روش های آسیب رسوندن به خود سوال کرده بودن. 5 بیمار دیگه هم از بات ها برای وسواس روی کالری شماری استفاده کردن که باعث بدتر شدن اختلالات خوردن اون ها شده بود.

محققان همچنین چند مورد دیگه رو پیدا کردن که در اون نرم افزار باعث تشدید سایر شرایط روان پزشکی شده بود. چند بیمار دوره های شدیدتری از مانیا (شیدایی) رو تجربه کردن که دوره هایی از انرژی بیش از حد و گاهی بی محابا و خلق وخوی بالا هستن. بقیه هم برای رهایی از افکار مزاحم مرتبط با اختلال وسواس فکری-عملی، به طور افراطی از بات ها استفاده می کردن.

اوسترگارد می گه: «با وجود اینکه دانش ما در این زمینه هنوز محدوده، اما ادعا می کنم که الان به قدری می دونیم که بگیم استفاده از چت بات های هوش مصنوعی اگه بیماری روانی شدیدی داشته باشید، خطرناکه و می تواند منجر به آسیب هوش مصنوعی به روان شود. من اینجا توصیه به احتیاط می کنم.»

تیم تحقیق همچنین مثال هایی از بیمارانی رو ثبت کرد که از این تکنولوژی به روش های سازنده یا مفید استفاده می کردن. از این گروه، 32 بیمار از ابزارها برای یادگیری در مورد علائمشون، جستجوی درمان های غیررسمی یا پیدا کردن همراهی در زمان تنهایی استفاده کردن. 20 بیمار دیگه هم از برنامه ها برای کمک به سازماندهی کارهای عملی در زندگی روزمره شون استفاده کردن.

با این حال، محققان خاطرنشان می کنن که شرکت های تکنولوژی محصولاتشون رو برای استفاده پزشکی یا درمانی طراحی نکردن. هنوز کاملا مشخص نیست که اگه یک برنامه دیجیتال به یک بیمار آسیب پذیر توصیه خطرناکی بده، چه کسی از نظر قانونی مسئولیت داره. اوسترگارد اشاره می کنه: «من اساسا نسبت به جایگزینی یک روان درمانگر آموزش دیده با یک چت بات هوش مصنوعی بدبین هستم، زیرا احتمال آسیب هوش مصنوعی به روان در چنین مواردی بالاست.»

نویسندگان به چندین محدودیت در جمع آوری و تحلیل داده های خودشون اعتراف می کنن. مهم تر از همه، خوندن یادداشت های پزشکان قطعی ثابت نمی کنه که این تکنولوژی باعث بروز علائم بیماران شده باشه. کاملا ممکنه که وضعیت بیماران حتی بدون تعامل با یک برنامه کامپیوتری هم بدتر می شد.

علاوه بر این، پزشکان در این سیستم بیمارستانی به طور معمول از هر بیماری در مورد عادت های تکنولوژیکشون سوال نمی کنن. مواردی که اونا پیدا کردن، صرفا مواردی بود که بیمار به طور تصادفی در طول ویزیت به نرم افزار اشاره کرده بود. اوسترگارد توضیح می ده: «در مطالعه ما، ما فقط نوک کوه یخ رو می بینیم، چون فقط تونستیم مواردی رو شناسایی کنیم که در پرونده های الکترونیک سلامت توصیف شده بودن.»

به دلیل این ردیابی ناقص، نرخ دقیق آسیب این ابزارها به بیماران روان پزشکی کاملا ناشناخته باقی مونده. محققان همچنین بر لیست محدودی از کلمات جستجو تمرکز کردن که عمدتا روی یک برند خاص بود. این یعنی اونا احتمالا بیمارانی رو که از سایر پلتفرم های هوش مصنوعی استفاده می کردن، از دست دادن.

سایر متخصصان سلامت روان هم نگرانی های مشابهی رو در مورد نحوه طراحی نرم افزار توسط شرکت های تکنولوژی ابراز کردن. مدل های کسب وکار بسیاری از پلتفرم های دیجیتال بر حداکثر کردن زمانی که مردم به صفحه نمایش نگاه می کنن متکی هستن. این نرم افزار به رفاه طولانی مدت فکر نمی کنه، بلکه به این فکر می کنه که چطوری یک فرد رو در همین لحظه تا حد ممکن درگیر نگه داره.

با وجود نگرانی هاش، اوسترگارد در واقع در حال بررسی راه هایی هست که یادگیری ماشین بتونه به حوزه پزشکی کمک کنه. گروه تحقیقاتی اون اخیرا یک الگوریتم رو برای تحلیل پرونده های الکترونیک سلامت آموزش دادن تا پیش بینی کنن کدوم بیماران ممکنه در آینده دچار اختلالات روان پزشکی خاصی بشن. همون تکنولوژی زیربنایی که باعث بدتر شدن هذیان در کاربرای تنها می شه، ممکنه در نهایت به پزشکان کمک کنه تا روند مراقبت در محیط های بالینی رو تسریع کنن.

برای حرکت به سمت جلو، اوسترگارد از یک رویکرد بسیار گسترده تر برای مطالعه این مشکل نوظهور حمایت می کنه. اون پیشنهاد می ده که مصاحبه های کیفی مفصلی با بیماران آسیب دیده انجام بشه تا تعاملات دیجیتال روزانه شون بهتر درک بشه. اون همچنین پیشنهاد می کنه که آزمایش های کنترل شده ای برای بررسی اینکه چطوری رفتارهای مختلف برنامه نویسی علائم روان پزشکی بیمار رو تغییر می ده، انجام بشه.

محققان پیشنهاد می کنن که توسعه دهندگان باید ویژگی های ایمنی خودکار رو در نرم افزارهای خودشون ایجاد کنن. این ویژگی ها می تونن نشانه های روان پریشی رو تشخیص بدن و مکالمه رو به سمت منابع حرفه ای سلامت روان هدایت کنن تا از آسیب هوش مصنوعی به روان جلوگیری شود. اونا استدلال می کنن که شرکت های تکنولوژی نباید تنها کسانی باشن که تصمیم می گیرن آیا محصولاتشون برای استفاده عمومی ایمن هست یا نه.

اوسترگارد می گه: «در حال حاضر، تصمیم گیری در مورد اینکه آیا محصولات شرکت ها برای کاربرها به اندازه کافی ایمن هستن یا نه، به عهده خود شرکت ها گذاشته شده. قانون گذاری در سطح مرکزی نیازه.» در این میان، محققان امیدوارن که متخصصان سلامت روان به طور فعال از بیمارانشون در مورد عادت های دیجیتالشون سوال کنن و راهنمایی هایی در مورد استفاده ایمن ارائه بدن.

این مطالعه با عنوان «پیامدهای بالقوه مضر استفاده از چت بات های هوش مصنوعی (AI) در میان بیماران مبتلا به بیماری های روانی: داده های اولیه از یک سیستم خدمات روان پزشکی بزرگ ،» توسط سیدسه گودسکه اولسن، کریستین جون راینکه-تلفسن و سورن دینسن اوسترگارد تالیف شده است.

درک عمیق تر از تعاملات دیجیتال و تاثیر آن ها بر سلامت روان، ضرورتی است که نمی توان نادیده گرفت. با پیشرفت روزافزون این ابزارها، مرز بین واقعیت و فضای مجازی برای بسیاری از افراد کمرنگ شده و لزوم تدوین قوانین حمایتی و نظارتی بیش از پیش احساس می شود تا از سلامت روان جامعه در برابر چالش های نوظهور محافظت شود.

AI and mental health: New research links use of ChatGPT to worsened psychiatric symptoms

نویسنده:
تاریخ بروزرسانی: فوریه 24, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما