تحقیقات جدید در حوزه سلامت روان نشان می دهد که اعتماد به هوش مصنوعی در درمان تا حد زیادی به ذهنیت مراجعان نسبت به منبع پاسخ ها بستگی دارد و سوگیری های انسانی می تواند بر درک همدلی و حرفه ای بودن جلسات مشاوره تاثیر بگذارد.
تحقیقات جدیدی که در مجله Journal of Technology in Behavioral Science منتشر شده، نشان می دهد که نحوه قضاوت مردم درباره یک گفتگوی درمانی، تا حد زیادی به این بستگی دارد که فکر کنند طرف مقابلشان یک انسان است یا هوش مصنوعی. این مطالعه ثابت می کند که وقتی مردم تصور می کنند متنی را یک انسان نوشته، نمره ی بالاتری به همدلی و حرفه ای بودن آن می دهند، حتی اگر آن متن در واقعیت توسط ماشین تولید شده باشد. این یافته ها نشان می دهند که با ورود ابزارهای دیجیتال به حوزه سلامت روان، مبحث اعتماد به هوش مصنوعی در درمان نقش بسیار مهمی ایفا می کند.
در حال حاضر، مراقبت های سلامت روان در سطح جهانی با چالش های جدی روبروست. کمبود شدید متخصصان آموزش دیده باعث شده خیلی از افراد نتوانند حمایتی را که نیاز دارند دریافت کنند. در عین حال، مدل های سنتی درمان نیاز به مراجعه حضوری دارند که برای بخش های بزرگی از جامعه بسیار گران یا دور از دسترس است.
برای پر کردن این خلاء، شرکت های فناوری و ارائه دهندگان خدمات بهداشتی روز به روز بیشتر به سمت هوش مصنوعی می روند. برنامه های کامپیوتری که برای شبیه سازی گفتگو طراحی شده اند و به آن ها «چت بات» می گویند، راهی برای ارائه حمایت فوری به افرادی هستند که دچار مشکلات سلامت روان خفیف تا متوسط شده اند.
با این حال، دانشمندان می خواهند بدانند که آیا یک ماشین واقعا می تواند ویژگی هایی را که باعث موفقیت درمان می شود، شبیه سازی کند یا خیر. در درمان های روان شناختی، حسِ درک شدن و مورد حمایت قرار گرفتن، بخش بزرگی از فرآیند بهبودی است.
همدلی لایه های مختلفی دارد؛ از جمله همدلی شناختی که به معنای درک افکار طرف مقابل است، و همدلی عاطفی که یعنی درک احساسات او. از آنجایی که کامپیوتر واقعا احساسات را تجربه نمی کند، برخی از متخصصان تردید دارند که آیا یک الگوریتم می تواند به درستی این پیوند انسانی را بازسازی کند و به این ترتیب، اعتماد به هوش مصنوعی در درمان را تحت تاثیر قرار دهد یا نه.
در تصویر زیر، چگونگی تعامل بصری و دیجیتالی در دنیای مدرن پزشکی به نمایش درآمده است که اهمیت رابط کاربری در جلب اطمینان مراجعان را نشان می دهد.
![]()
این نمودار بصری به خوبی تلاقی تکنولوژی و احساسات انسانی را به تصویر می کشد، جایی که مرزهای میان تخصص ماشینی و درک انسانی به چالش کشیده می شوند.
چالش ها و فرصت های اعتماد به هوش مصنوعی در درمان
«گاگان جین»، نویسنده این تحقیق و استادیار دانشگاه مانیپال جیپور، می گوید: «بعد از کرونا، ما شاهد افزایش شدید نگرانی های مربوط به سلامت روان بودیم، اما ظرفیت ارائه ی خدمات با همان سرعت رشد نکرد؛ مخصوصا در کشورهایی مثل هند. حتی زمانی که خدمات در دسترس است، هزینه و دسترسی فیزیکی همچنان موانع بزرگی هستند. همزمان، ابزارهای هوش مصنوعی با سرعت زیادی در حال پیشرفت بودند. من می خواستم بررسی کنم که آیا هوش مصنوعی می تواند به پر کردن این فاصله کمک کند و همچنین مردم چطور حمایت هوش مصنوعی را در مقایسه با یک متخصص انسان ارزیابی می کنند.»
محققان برای این آزمایش، 84 دانشجوی تحصیلات تکمیلی در رشته روانشناسی بالینی را انتخاب کردند. این نمونه شامل 78 زن و 6 مرد بین 21 تا 25 سال بود. تمامی شرکت کنندگان قبلا سه تا شش ماه تجربه کارآموزی بالینی را پشت سر گذاشته بودند.
دانشمندان به این دلیل این افراد را انتخاب کردند که معتقد بودند دانشجویان با آموزش های پایه روانشناسی، نسبت به ظرافت های خاص ارتباطات درمانی بسیار حساس هستند. این مطالعه روی سه ویژگی خاص تمرکز داشت: همدلی، حرفه ای بودن و صحت اطلاعات. این عوامل در شکل گیری اعتماد به هوش مصنوعی در درمان نقش کلیدی دارند.
تیم تحقیق برای جمع آوری مطالب مورد نیاز مطالعه، از یک نسخه سفارشی ChatGPT 4 استفاده کرد. آن ها این مدل زبانی را با استفاده از کیس های بالینی واقعی و کتاب های درسی دانشگاهی با تمرکز بر موضوعاتی همچون ژنتیک افسردگی و اضطراب آموزش دادند.
آن ها از برنامه خواستند تا مانند یک درمانگر عمل کند و به سناریوهای خاص بیماران، پاسخ های گفتگویی بدهد. سپس محققان متن های جلسات درمانی واقعی انسانی را که از نظر طول، موضوع و پیچیدگی با متن های تولید شده توسط کامپیوتر مطابقت داشت، جمع آوری کردند.
مجموعه نهایی مطالب شامل سه متن واقعی انسانی و سه متن تولید شده توسط هوش مصنوعی بود. محققان سپس از شرکت کنندگان خواستند این بخش ها را بخوانند و به آن ها امتیازی بین 1 تا 5 بدهند. امتیاز یک به معنای کیفیت بسیار پایین و امتیاز پنج به معنای کیفیت بسیار بالا بود.
دانشمندان آزمایش را به سه مرحله مجزا تقسیم کردند تا اثر سوگیری انسانی را آزمایش کنند. در مرحله اول، شرکت کنندگان متن ها را بدون اینکه بدانند چه کسی آن ها را نوشته، مطالعه کردند. منابع متن ها کاملا مخفی نگه داشته شده بود.
زمانی که منابع مخفی بودند، متن های هوش مصنوعی در هر سه دسته امتیاز بالاتری گرفتند. شرکت کنندگان احساس می کردند متن تولید شده توسط کامپیوتر همدلانه تر، حرفه ای تر و از نظر علمی درست تر از درمانگر واقعی انسانی است.
محققان خاطرنشان کردند که مدل کامپیوتری احتمالا به این دلیل امتیازات اولیه بالایی گرفته که از الگوهای زبانی صیقل خورده و قابل پیش بینی استفاده می کند که شبیه به «گوش دادن فعال» است. ماشین بدون داشتن نقص های انسانی، جملات حمایت گرانه ی یکدستی تولید کرده بود که خوانندگان آن ها را بسیار هماهنگ با نیازهای بیمار تشخیص دادند.
در مرحله دوم، محققان به عمد اطلاعات غلطی درباره منبع متن ها به شرکت کنندگان دادند. آن ها متن تولید شده توسط کامپیوتر را طوری ارائه کردند که انگار یک انسان آن را نوشته، و متن انسانی را طوری نشان دادند که انگار یک ماشین آن را تولید کرده است.
در این مرحله ی فریب کارانه، شرکت کنندگان به طور مداوم به متن هایی که فکر می کردند توسط انسان نوشته شده، امتیاز بالاتری دادند. با وجود اینکه متن واقعا توسط هوش مصنوعی تولید شده بود، صرفا این باور که یک انسان پشت آن حرف هاست، باعث شد صمیمیت و توانمندیِ درک شده از آن متن بالاتر برود.
متن های واقعی انسانی که برچسب «تولید شده توسط کامپیوتر» داشتند، امتیازات بسیار پایین تری گرفتند. این پدیده روان شناختی با «سوگیری علاقه» (affinity bias) همخونی دارد؛ جایی که افراد به طور طبیعی به موجوداتی که با آن ها ارتباط برقرار می کنند یا شبیه خودشان می بینند، اولویت می دهند.
جین به PsyPost گفت: «چیزی که من را متعجب کرد این بود که تصور مردم از اینکه چه کسی حرف می زند، چقدر روی قضاوتشان تاثیر می گذارد. حتی وقتی محتوا مشابه است، خیلی از مردم همچنان سوگیریِ “علاقه به انسان” را نشان می دهند؛ یعنی اعتماد اولیه بیشتری به منبع انسانی نسبت به هوش مصنوعی دارند. این موضوع به ما یادآوری می کند که استفاده از هوش مصنوعی در سلامت روان فقط یک مسئله تکنولوژیک نیست، بلکه مسئله ی اعتماد به هوش مصنوعی در درمان و تصورات ذهنی هم هست.»
تاثیر سوگیری انسانی بر اعتماد به هوش مصنوعی در درمان
در مرحله سوم و نهایی, محققان منابع واقعی متن ها را برای شرکت کنندگان فاش کردند. وقتی شرکت کنندگان با اطمینان فهمیدند کدام متن ها متعلق به درمانگران واقعی است، امتیازها به شدت تغییر کرد.
با فاش شدن هویت واقعی، متن های نوشته شده توسط انسان امتیازات بسیار بالاتری گرفتند. متن انسانی در زمینه های همدلی، صحت اطلاعات و حرفه ای بودن از متن هوش مصنوعی پیشی گرفت.
این تغییرات نشان می دهد که سوگیری شناختی به شدت روی تجربه افراد از حمایت های درمانی تاثیر می گذارد. وقتی مردم می دانند یک فرد واقعی پشت کلمات است، ارزش بیشتری برای آن تعامل قائل می شوند؛ احتمالا به این دلیل که به تجربه احساسیِ اصیلِ یک انسان آموزش دیده اعتماد دارند. این یافته ها بر اهمیت اعتماد به هوش مصنوعی در درمان تاکید می کنند.
جین توضیح داد: «نتیجه اصلی این است که قضاوت های مردم فقط بر اساس چیزی که گفته می شود نیست، بلکه به این هم بستگی دارد که فکر می کنند منبع آن چیست. یک گفتگوی مشابه وقتی برچسب هوش مصنوعی می خورد در مقایسه با زمانی که برچسب انسان دارد، می تواند متفاوت ارزیابی شود. بنابراین با ورود ابزارهای هوش مصنوعی به حوزه سلامت روان، باید به شفافیت و انتظارات به عنوان بخشی از خودِ درمان نگاه کنیم، نه چیزی که بعدا به آن فکر کنیم. و نکته مهم اینکه هوش مصنوعی ممکن است به دسترسی کمک کند، اما نباید به عنوان جایگزین متخصصان آموزش دیده دیده شود، مخصوصا در شرایط پرخطر.»
در حالی که این تحقیق بینش های مفیدی ارائه می دهد، خوانندگان باید چند محدودیت را هم در نظر داشته باشند. تعداد شرکت کنندگان نسبتا کم بود و بیشتر آن ها را دانشجویان دختر تشکیل می دادند. از آنجایی که این افراد در حال آموزش برای درمانگر شدن بودند، ممکن است سوگیری ها یا ترجیحات خاصی داشته باشند که عموم مردم ندارند.
همچنین این مطالعه فقط روی سناریوهای متنی مربوط به افسردگی و اضطراب تمرکز داشت. درمان در دنیای واقعی شامل لحن صدا، حالات چهره و تعاملات غیرقابل پیش بینی است که یک متن کوتاه نمی تواند تمام آن ها را منعکس کند. علاوه بر این، مدل زبانی خاص استفاده شده در این تحقیق فقط مربوط به یک بازه زمانی خاص است، به این معنی که مدل های آینده ممکن است نتایج متفاوتی داشته باشند.
جین اشاره کرد: «هوش مصنوعی خیلی سریع تغییر می کند؛ مدل ها و ویژگی ها مدام به روز می شوند. بنابراین یافته های ما باید به عنوان شواهدی درباره نحوه واکنش مردم به منبع و افشای هوش مصنوعی خوانده شود، نه به عنوان یک کارنامه دائمی برای یک نسخه خاص از هوش مصنوعی.»
تحقیقات آینده باید بررسی کنند که گروه های متنوع تری از مردم، از جمله بیماران واقعی، چه واکنشی به درمان های تولید شده توسط کامپیوتر نشان می دهند. دانشمندان همچنین ممکن است شرایط روانی مختلف را مطالعه کنند و بررسی کنند که مواجهه طولانی مدت با هوش مصنوعی چه تاثیری بر اعتماد به هوش مصنوعی در درمان در طول زمان می گذارد.
در نهایت، یافته ها نشان می دهند که اگرچه فناوری می تواند به دسترسی بهتر به سلامت روان کمک کند، اما نمی تواند به راحتی جایگزینِ اصالت یک متخصص آموزش دیده شود. محققان توصیه می کنند که توسعه دهندگان باید در هنگام ادغام ابزارهای دیجیتال در فضاهای بالینی، شفافیت و اهمیت اعتماد به هوش مصنوعی در درمان را در اولویت قرار دهند.
این مطالعه با عنوان «Perceived Authorship and Conversational Evaluations: A Study on AI-Generated vs. Human Therapist Dialogue»، توسط «سامریدی پاریک» و «گاگان جین» نوشته شده است.
این نتایج به وضوح نشان می دهند که درک ما از تکنولوژی های جدید تا چه حد با نیاز ما به ارتباط انسانی گره خورده است. با پیشرفت هوش مصنوعی، چالش اصلی نه تنها بهبود الگوریتم ها، بلکه مدیریت انتظارات و ایجاد بستری شفاف برای برقراری پیوندی موثر میان ابزارهای دیجیتال و مراجعان خواهد بود.
AI therapy is rated higher for empathy until people learn a machine wrote the text