خانه تازه‌های علم و تحقیق روان شناسی پشت پرده بی اعتمادی به هوش مصنوعی و جعبه سیاه الگوریتم ها
روان شناسی پشت پرده بی اعتمادی به هوش مصنوعی و جعبه سیاه الگوریتم ها

روان شناسی پشت پرده بی اعتمادی به هوش مصنوعی و جعبه سیاه الگوریتم ها

در این مقاله:

بررسی ریشه های روان شناختی بی اعتمادی به هوش مصنوعی نشان می دهد که ابهام در عملکرد الگوریتم ها و ترس از دست دادن کنترل، عامل اصلی تردید انسان ها در پذیرش این فناوری است.

از چت جی پی تی که ایمیل می نویسه گرفته، تا سیستم های هوش مصنوعی که سریال پیشنهاد می دن و حتی تو تشخیص بیماری کمک می کنن، دیگه حضور هوش مصنوعی تو زندگی روزمره ما یه داستان علمی-تخیلی نیست، اما این حضور گاهی با بی اعتمادی به هوش مصنوعی همراه است.

با این حال، با وجود همه وعده هایی که درباره سرعت، دقت و بهینه سازی داده شده، هنوز یه حس ناخوشایند ته دلمون باقی مونده. این حس ناخوشایند اغلب منجر به بی اعتمادی به هوش مصنوعی می شود.

بعضی ها عاشق استفاده از ابزارهای هوش مصنوعی هستن. بقیه نسبت بهشون حس اضطراب مرتبط با شبکه های اجتماعی، شک یا حتی خیانت دارن. اما چرا؟

جوابش فقط مربوط به طرز کار هوش مصنوعی نیست. مربوط به اینه که ما چطور عمل می کنیم. چون درکش نمی کنیم، بی اعتمادی به هوش مصنوعی شکل می گیرد.

ما انسان ها معمولا به سیستم هایی اعتماد می کنیم که برامون قابل درک باشن. ابزارهای سنتی برامون آشنان: سوئیچ رو می چرخونی و ماشین روشن می شه. دکمه رو می زنی و آسانسور می آد.

اما خیلی از سیستم های هوش مصنوعی مثل جعبه های سیاه عمل می کنن: یه چیزی تایپ می کنی و یه نتیجه ظاهر می شه. منطقی که این وسط وجود داره مخفیه. از نظر روان شناسی، این موضوع نگران کننده ست. ما دوست داریم علت و معلول رو ببینیم و دلمون می خواد بتونیم از تصمیم ها سوال بپرسیم. وقتی نمی تونیم، حس می کنیم کنترلی روی اوضاع نداریم.

این یکی از دلایل اصلی بی اعتمادی به هوش مصنوعی و چیزیه که بهش می گن «بیزاری از الگوریتم».

این اصطلاحی هست که توسط برکلی دیت وورست، محقق بازاریابی و همکاراش رایج شده؛ تحقیقات اون ها نشون داده که مردم اغلب قضاوت اشتباه انسانی رو به تصمیم گیری الگوریتمی ترجیح می دن، مخصوصا بعد از اینکه حتی یه دونه خطای الگوریتمی ببینن.

در این بخش تصویری را مشاهده می کنید که تضاد میان دنیای داده های سرد و احساسات انسانی را به تصویر می کشد و ریشه های تردید ما را نمایش می دهد.

بیزاری از الگوریتم و بی اعتمادی به هوش مصنوعی

این تصویر به خوبی نشان می دهد که چگونه ابهام در فرآیندهای ماشینی می تواند باعث فاصله گرفتن کاربر از تکنولوژی های نوین شود.

ما از نظر منطقی می دونیم که سیستم های هوش مصنوعی احساسات یا برنامه خاصی ندارن. اما این باعث نمی شه که حس هامون رو بهشون نسبت ندیم. وقتی چت جی پی تی «خیلی مودبانه» جواب می ده، بعضی کاربرها حس عجیبی پیدا می کنن. وقتی یه موتور پیشنهاددهنده خیلی دقیق عمل می کنه، حس می کنیم حریم خصوصیمون نقض شده. شروع می کنیم به شک کردن به اینکه دارن دستکاریمون می کنن، با اینکه اون سیستم اصلا درکی از خودش نداره.

این یه نوع «انسان انگاری» هست؛ یعنی نسبت دادن نیت های انسانی به سیستم های غیرانسانی. این انسان انگاری گاهی به بی اعتمادی به هوش مصنوعی دامن می زند. پروفسورهای ارتباطات، کلیفورد ناس و بایرون ریوز به همراه بقیه نشون دادن که ما به ماشین ها واکنش های اجتماعی نشون می دیم، حتی با اینکه می دونیم اون ها آدم نیستن.

وقتی هوش مصنوعی اشتباه می کند؛ ریشه بی اعتمادی به هوش مصنوعی

یکی از یافته های جالب علوم رفتاری اینه که ما معمولا خطای انسانی رو راحت تر از خطای ماشین می بخشیم. همین موضوع نقش مهمی در شکل گیری بی اعتمادی به هوش مصنوعی دارد. وقتی یه آدم اشتباه می کنه، درکش می کنیم. حتی ممکنه باهاش همدلی کنیم. اما وقتی یه الگوریتم اشتباه می کنه، مخصوصا اگه به عنوان یه چیز بی طرف یا داده محور معرفی شده باشه، حس می کنیم بهمون خیانت شده.

این موضوع به تحقیقات روی نقض انتظار مربوط می شه؛ یعنی زمانی که تصورات ما درباره اینکه یه چیز «چطور باید» رفتار کنه، به هم می خوره. این اتفاق باعث ناراحتی و از بین رفتن اعتماد می شه. ما به ماشین ها اعتماد می کنیم چون فکر می کنیم منطقی و بی طرف هستن. بنابراین وقتی شکست می خورن، مثلا یه تصویر رو اشتباه تشخیص می دن، خروجی های مغرضانه می دن یا یه چیز کاملا نامناسب پیشنهاد می کنن، واکنشمون خیلی تندتره. چون انتظار بیشتری ازشون داشتیم.

طنز ماجرا چیه؟ انسان ها همیشه تصمیم های اشتباه می گیرن. اما حداقل می تونیم ازشون بپرسیم «چرا؟»

برای بعضی ها، هوش مصنوعی فقط یه چیز ناشناخته نیست، بلکه از نظر وجودی نگران کننده ست. معلم ها، نویسنده ها، وکیل ها و طراح ها یهو با ابزارهایی روبرو شدن که بخش هایی از کارشون رو کپی می کنن. این فقط بحث خودکارسازی نیست، بحث اینه که چی باعث ارزشمند شدن مهارت های ما می شه و اصلا انسان بودن یعنی چی.

این موضوع می تونه یه جور «تهدید هویت» رو فعال کنه، مفهومی که کلود استیل، روان شناس اجتماعی و دیگران بررسی کردن. این مفهوم ترس از این رو توصیف می کنه که تخصص یا منحصربه فرد بودنِ فرد داره از بین می ره. نتیجه ش چی می شه؟ مقاومت، حالت تدافعی یا کلا کنار گذاشتن اون تکنولوژی. در این مورد، بی اعتمادی به هوش مصنوعی یه ایراد نیست، بلکه یه مکانیزم دفاعی روانی محسوب می شه.

نشانه های احساسی و افزایش بی اعتمادی به هوش مصنوعی

اعتماد انسانی روی چیزی بیشتر از منطق بنا شده. ما لحن، حالت های صورت، تردید و تماس چشمی رو می سنجیم. هوش مصنوعی هیچ کدوم از این ها رو نداره. ممکنه خوش صحبت یا حتی جذاب باشه، اما نمی تونه اون طوری که یه آدم بهمون اطمینان خاطر می ده، بهمون آرامش بده.

این شبیه به حس ناخوشایند «دره وهمی» هست؛ اصطلاحی که ماساهیرو موری، ربات ساز ژاپنی برای توصیف اون حس عجیبی به کار برد که وقتی چیزی تقریبا شبیه انسانه ولی کاملا نیست، بهمون دست می ده. ظاهر یا صداش درسته، اما یه جای کار می لنگه. اون نبودِ احساسات ممکنه به سردی یا حتی فریبکاری تعبیر بشه.

در دنیایی پر از دیپ فیک و تصمیمات الگوریتمی، اون نبودِ رزونانس احساسی تبدیل به یه مشکل می شه. نه به خاطر اینکه هوش مصنوعی کار اشتباهی انجام می ده، بلکه به خاطر اینکه ما نمی دونیم چه حسی نسبت بهش داشته باشیم.

لازمه بگیم که: همه شک و تردیدها به هوش مصنوعی غیرمنطقی نیستن. ثابت شده که الگوریتم ها تعصبات رو منعکس و تقویت می کنن، به خصوص تو حوزه هایی مثل استخدام، پلیس و رتبه بندی اعتبار بانکی. اگه قبلا از سیستم های داده ای ضربه خوردین یا ضرر دیدین، شما پارانوئید نیستین، فقط دارین احتیاط می کنین.

این به یه ایده روان شناختی گسترده تر وصل می شه: «بی اعتمادی آموخته شده». وقتی نهادها یا سیستم ها بارها به گروه های خاصی خیانت می کنن، شک داشتن نه تنها منطقیه، بلکه یه نوع محافظت از خود محسوب می شه.

اینکه به مردم بگیم «به سیستم اعتماد کنید» به ندرت جواب می ده. اعتماد رو باید به دست آورد. این یعنی طراحی ابزارهای هوش مصنوعی که شفاف، قابل پرسش و پاسخگو باشن. یعنی به کاربرها حق انتخاب و عاملیت بدیم، نه فقط راحتی. از نظر روان شناسی، ما به چیزی اعتماد می کنیم که درکش کنیم، بتونیم زیر سوال بپرسیمش و باهامون با احترام رفتار کنه.

اگه می خوایم هوش مصنوعی پذیرفته بشه، باید کمتر شبیه یه جعبه سیاه و بیشتر شبیه گفتگویی باشه که از ما دعوت شده توش شرکت کنیم.

در نهایت، درک عمیق تر از واکنش های ما به تکنولوژی نشان می دهد که شکاک بودن همیشه منفی نیست، بلکه ابزاری برای حفظ عاملیت انسانی در دنیای دیجیتال است. تنها با ایجاد شفافیت و تقویت درک متقابل است که می توان رابطه ای پایدار و امن میان انسان و سیستم های هوشمند برقرار کرد.

The psychology behind our anxiety toward black box algorithms

نویسنده:
تاریخ بروزرسانی: ژانویه 3, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما