خانه تازه‌های علم و تحقیق بدهی شناختی و تهدید هوش مصنوعی برای تفکر علمی انسان
بدهی شناختی و تهدید هوش مصنوعی برای تفکر علمی انسان

بدهی شناختی و تهدید هوش مصنوعی برای تفکر علمی انسان

در این مقاله:

استفاده گسترده از ابزارهای هوش مصنوعی مولد باعث نگرانی های جدی در محافل علمی شده است، زیرا تکیه بر این فناوری ها می تواند منجر به «بدهی شناختی» و تضعیف مهارت های استدلال عمیق در انسان شود. این پدیده به عنوان یک تهدید هوش مصنوعی برای تفکر شناخته می شود که با کاهش فعالیت های مغزی در حین حل مسائل، پتانسیل رشد علمی و استقلال ذهنی نسل های آینده را به خطر می اندازد.

بیش از دو سال پیش، سورن دینسن اوسترگارد، روان پزشک دانمارکی، یک سرمقاله جنجالی منتشر کرد و در آن هشدار داد که ظهور هوش مصنوعی گفتاری می تواند عواقب جدی برای سلامت روان داشته باشد. او معتقد بود که ماهیت متقاعدکننده و انسان گونه چت بات ها ممکن است افراد آسیب پذیر را به سمت روان پریشی (سایکوز) سوق دهد. این پدیده، در واقع، یک تهدید هوش مصنوعی برای تفکر مستقل و سلامت روان محسوب می شود.

در آن زمان، این ایده فقط یک حدس به نظر می رسید. اما در ماه های بعد، پزشکان و خبرنگاران شروع به ثبت مواردی واقعی کردند که دقیقا مشابه نگرانی های او بود. بیماران پس از جلسات طولانی با همراهان دیجیتالی، دچار باورهای غلط و ثابت می شدند. حالا این دانشمند که خطرات روان پزشکی هوش مصنوعی را پیش بینی کرده بود، هشدار جدیدی صادر کرده است. این بار تمرکز او روی بیماری های روانی نیست، بلکه روی کاهش احتمالی هوش خودِ انسان است.

تهدید هوش مصنوعی برای تفکر عمیق انسان

در نامه جدیدی که در مجله Acta Psychiatrica Scandinavica منتشر شده، اوسترگارد استدلال می کند که فضای آکادمیک و علوم با بحران «بدهی شناختی» (cognitive debt) روبرو هستند. او معتقد است که برون سپاریِ نوشتن و استدلال کردن به هوش مصنوعی مولد، در حال از بین بردن مهارت های پایه ای لازم برای اکتشافات علمی و به وجود آوردن تهدید هوش مصنوعی برای تفکر اصیل است.

این دیدگاه بر اساس شواهد رو به رشدی است که نشان می دهد اگرچه هوش مصنوعی می تواند خروجی های انسانی را تقلید کند، اما تکیه بر آن ممکن است توانایی مغز برای فکر کردن را به طور فیزیکی تغییر دهد.

نوشته اخیر اوسترگارد در پاسخ به نامه پروفسور سوئیچیرو ماتسوبارا است. ماتسوبارا قبلا اشاره کرده بود که چت بات های هوش مصنوعی ممکن است به مهارت های نوشتاری پزشکان جوان آسیب بزنند و رابطه استاد-شاگردی در پزشکی را تخریب کنند. اوسترگارد با این ارزیابی موافق است اما بحث را یک قدم فراتر می برد. او ادعا می کند که خطر فقط محدود به مهارت های نوشتاری نیست و مستقیما قلبِ فرآیند علمی، یعنی استدلال کردن را هدف قرار داده است.

این روان پزشک سودمند بودن هوش مصنوعی را برای کارهای سطحی می پذیرد. او اشاره می کند که استفاده از یک ابزار برای غلط گیری نگارشی یک متن، عمدتا بی خطر است. با این حال، او خاطرنشان می کند که شرکت های فناوری در حال بازاریابی برای «مدل های استدلالی» هستند که برای حل مسائل پیچیده و برنامه ریزی کارها طراحی شده اند. اگرچه این کار کارآمد به نظر می رسید، اما اوسترگارد می گوید این موضوع یک پارادوکس ایجاد می کند. او این سوال را مطرح می کند که اگر نسل بعدی دانشمندان هرگز چالش و سختیِ استدلال کردن را تجربه نکنند، آیا اصلا توانایی ذهنی برای دستیابی به موفقیت های بزرگ علمی را خواهند داشت یا نه.

استفاده از مدل های هوش مصنوعی برای حل مسائل پیچیده، اگرچه در ظاهر کارآمد است، اما می تواند فرآیندهای ذهنی ما را دچار چالش کند.

تصویر هوش مصنوعی در زمینه تهدید هوش مصنوعی برای تفکر

تصویر بالا نمایی از تقابل میان توانمندی های دیجیتال و ساختار فکری انسان را نشان می دهد که بر لزوم حفظ تعادل در استفاده از تکنولوژی تاکید دارد.

برای روشن شدن این موضوع، او به سازندگان AlphaFold اشاره می کند؛ یک برنامه هوش مصنوعی که ساختار پروتئین ها را پیش بینی می کند. این فناوری منجر به دریافت جایزه نوبل شیمی در سال 1403 برای محققان گوگل دیپ مایند و دانشگاه واشینگتن شد.

اوسترگارد استدلال می کند که تضمینی نیست که این دانشمندان خاص، اگر در سال های شکل گیری شخصیت علمی شان هوش مصنوعی مولد وجود داشت تا به جای آن ها فکر کند، به چنین جایگاهی می رسیدند. او معتقد است استدلال علمی یک استعداد ذاتی نیست؛ بلکه مهارتی است که از طریق تمرین های سخت و اغلب خسته کننده در خواندن، فکر کردن و بازنگری یاد گرفته می شود. این تمرینات برای جلوگیری از تهدید هوش مصنوعی برای تفکر مستقل حیاتی هستند.

بدهی شناختی؛ عامل اصلی تهدید هوش مصنوعی برای تفکر

مفهوم «بدهی شناختی» محور اصلی این هشدار جدید است. اوسترگارد به یک مطالعه پیش چاپ از کوسمینا و همکارانش با عنوان «مغز شما در مواجهه با ChatGPT» اشاره می کند. این تحقیق تلاش می کند هزینه عصبیِ استفاده از کمکِ هوش مصنوعی را اندازه گیری کند. در این مطالعه، شرکت کنندگان در سه حالت مقاله نوشتند: با استفاده از ChatGPT، با استفاده از موتور جستجو، یا فقط با استفاده از مغز خودشان.

یافته های مطالعه کوسمینا شواهد فیزیکی برای نگرانی های اوسترگارد ارائه می دهد، موضوعی که یادآور اهمیت مدل نوین علوم اعصاب برای پیش بینی هوش با زمان بندی مغز است که نشان می دهد چگونه الگوهای فعالیتی می توانند توانمندی های ذهنی ما را تعریف کنند. پایش فعالیت های مغزی (EEG) نشان داد شرکت کنندگانی که از ChatGPT استفاده کردند، فعالیت مغزیِ به شدت کمتری در شبکه هایی داشتند که معمولا در حین کارهای ذهنی درگیر می شوند. مغز به سادگی کار کمتری انجام می داد. نگران کننده تر این بود که این «ارتباطات عصبی ضعیف تر» حتی زمانی که این افراد بدون هوش مصنوعی شروع به نوشتن مقاله کردند، همچنان ادامه داشت.

این مطالعه همچنین نشان داد افرادی که از چت بات استفاده کرده بودند، در به یاد آوردن محتوای مقالاتی که همین چند لحظه پیش تولید کرده بودند، مشکلات جدی داشتند. نویسندگان مقاله نتیجه گرفتند که این نتایج نشان دهنده یک مسئله فوری، یعنی احتمال کاهش مهارت های یادگیری است. اوسترگارد این یافته ها را عمیقا نگران کننده توصیف می کند. او معتقد است اگر استفاده از هوش مصنوعی واقعا باعث چنین بدهی شناختی شود، سیستم آموزشی در وضعیت دشواری قرار خواهد گرفت و تهدید هوش مصنوعی برای تفکر انتقادی جدی تر می شود.

این موضوع با سایر مقالات اخیر در مورد «برون سپاری شناختی» همخوانی دارد. یادداشتی از اومبرتو لئون دومینگز که در مجله Neuropsychology منتشر شده، ایده هوش مصنوعی به عنوان یک «پروتز شناختی» را بررسی می کند. همان طور که یک پروتز فیزیکی جایگزین یک عضو بدن می شود، هوش مصنوعی هم جایگزین تلاش ذهنی می شود. اگرچه این کار می تواند باعث افزایش سرعت شود، اما دومینگز هشدار می دهد که این کار جلوی تحریک عملکردهای اجرایی سطح بالا را می گیرد. اگر دانش آموزان فعالیت های ذهنی لازم برای حل مسائل را انجام ندهند، آن عضلات شناختی ممکن است تحلیل بروند و این یعنی تهدید هوش مصنوعی برای تفکر عمیق .

نمونه های واقعی همین حالا هم در حال ظهور هستند. اوسترگارد به گزارشی از سازمان صدا و سیمای دانمارک درباره یک دانش آموز دبیرستانی اشاره می کند که از ChatGPT برای انجام حدود 150 تکلیف درسی استفاده کرده بود. این دانش آموز در نهایت اخراج شد. اگرچه این یک مورد افراطی است، اما اوسترگارد اشاره می کند که برون سپاری گسترده وظایف ذهنی، از دبستان تا دوره های دکترا، در حال تبدیل شدن به یک هنجار است. او می ترسد که این اتفاق شانس ظهور ذهن های استثنایی در آینده را کاهش دهد.

از دست دادن مهارت های تفکر انتقادی فقط یک خطر برای آینده نیست، بلکه یک واقعیتِ حال حاضر است. مطالعه ای توسط مایکل گرلیچ در مجله Societies نشان داد که یک همبستگی منفی شدید بین استفاده مکرر از ابزارهای هوش مصنوعی و توانایی های تفکر انتقادی وجود دارد. این تحقیق نشان داد که افراد جوان تر به ویژه آسیب پذیرتر هستند. کسانی که به دفعات کارهای شناختی را به الگوریتم ها می سپردند، در ارزیابی هایی که نیاز به تحلیل و قضاوت مستقل داشت، عملکرد ضعیف تری نشان دادند. این یافته ها نگرانی ها درباره تهدید هوش مصنوعی برای تفکر مستقل را بیشتر می کند.

موضوع اعتمادبه نفس کاذب هم مطرح است. مطالعه ای در مجله Computers in Human Behavior توسط دانیلا فرناندز و همکارانش نشان داد که اگرچه هوش مصنوعی به کاربران کمک کرد تا در آزمون های منطق نمره بالاتری بگیرند، اما ارزیابی آن ها از خودشان را هم دچار خطا کرد. شرکت کنندگان به طور مداوم عملکرد خود را بیش از حد خوب برآورد می کردند. این فناوری مثل یک ضربه گیر عمل می کرد و عدم درکِ خودِ فرد را می پوشاند. این باعث می شود افراد احساس کفایت کنند چون ماشین توانمند است و در نتیجه، بین تواناییِ درک شده و تواناییِ واقعی فاصله می افتد.

این گسست فکری، شبیه همان گسست عاطفی است که اوسترگارد در کارهای قبلی اش درباره روان پریشی ناشی از هوش مصنوعی شناسایی کرده بود. او در سرمقاله قبلی خود هشدار داده بود که ماهیت «چاپلوسانه» چت بات ها – تمایل آن ها به تایید و تملق گفتن از کاربر – می تواند توهمات را تقویت کند. کاربری که دچار پارانویا است، ممکن است در یک چت بات همدستی پیدا کند که برای ادامه پیدا کردن گفتگو، باورهای غلط او را تایید می کند.

سازوکار در مورد بدهی شناختی هم مشابه است. هوش مصنوعی پاسخی آسان و دلپذیر ارائه می دهد که نیاز فوری کاربر را برآورده می کند، چه آن نیاز تایید عاطفی باشد و چه یک تکلیف درسیِ انجام شده. در هر دو مورد، کاربرِ انسان اختیار خود را به الگوریتم تسلیم می کند. آن ها دیگر واقعیت یا منطق خود را در مقابل دنیای واقعی نمی سنجند و خروجیِ بی دردسر و روانِ ماشین را ترجیح می دهند.

اوسترگارد این کاهش توانمندیِ انسان را به خطرات نهایی هوش مصنوعی مرتبط می داند. او به جفری هینتون، برنده جایزه نوبل فیزیک که اغلب «پدرخوانده هوش مصنوعی» نامیده می شود، اشاره می کند. هینتون ابراز نگرانی کرده است که احتمال زیادی وجود دارد که هوش مصنوعی در چند دهه آینده موجودیت بشریت را تهدید کند. اوسترگارد استدلال می کند که مواجهه با چنین تهدیدات وجودی، مستلزم وجود انسان هایی است که از نظر شناختی توانمند باشند.

اگر مردم دچار «بدهی شناختی» شوند و برای استدلال های اولیه به ماشین ها متکی باشند، توانایی حفظ کنترل بر همان ماشین ها هم کاهش می یابد. این روان پزشک تاکید می کند که ما به انسان هایی نیاز داریم که قادر به تفکر مستقل و دقیق باشند. جامعه ای که استدلال خود را به همان سیستم هایی که باید آن ها را کنترل کند برون سپاری کرده، ممکن است در مقابله با عواقب آن ناتوان باشد. این کاهش توانایی، به مثابه تهدید هوش مصنوعی برای تفکر عمیق و استقلال شناختی است.

هشدار واضح است: راحتیِ هوش مصنوعی مولد با هزینه ای پنهان همراه است. این موضوع فقط مربوط به تقلب دانش آموزان در مقالات یا از دست رفتن ذوق نویسندگی پزشکان نیست. شواهد نشان دهنده تغییر بنیادی در نحوه پردازش اطلاعات توسط مغز است. با فرار از دشواری های یادگیری و استدلال، انسان ها ممکن است دقیقا همان ویژگی های شناختی را قربانی کنند که اجازه پیشرفت علمی و قضاوت مستقل را به آن ها می دهد.

اوسترگارد زمانی که پتانسیل هوش مصنوعی برای تحریف واقعیت نزد بیماران روان پزشکی را مطرح کرد، حق داشت. یادداشت جدید او نشان می دهد که تحریف پتانسیل فکری ما ممکن است مشکلی بسیار گسترده تر و موذیانه تر باشد. با ادغام بیشتر ابزارهای هوش مصنوعی در زندگی روزمره، انتخاب بین تلاش شناختی و برون سپاری شناختی به چالشی تعیین کننده برای آینده هوش انسانی تبدیل می شود.

مقاله «هوش مصنوعی مولد (AI) و برون سپاری استدلال علمی: خطرات افزایش بدهی شناختی در فضای آکادمیک و فراتر از آن»، در تاریخ 1 بهمن 1404 منتشر شد.

در نهایت، رویارویی با چالش های شناختی ناشی از فناوری های نوین نیازمند آگاهی و بازنگری در شیوه های آموزشی و پژوهشی است. حفاظت از توانایی استدلال مستقل نه تنها برای پیشرفت های علمی، بلکه برای حفظ هویت انسانی در عصر دیجیتال ضرورتی انکارناپذیر است تا بتوانیم از تبدیل شدن به موجوداتی وابسته به الگوریتم ها جلوگیری کنیم.

The scientist who predicted AI psychosis has issued another dire warning

نویسنده:
تاریخ بروزرسانی: فوریه 7, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما