
ناتوانی مدلهای زبانی در تحلیل متون ادبی و هنری؛
آسیبشناسی یک تجربه آموزشی در مواجهه با هوش مصنوعی
هوش مصنوعی، به شدت به کیفیت ورودی وابسته است. اگر پرسشی که به مدل داده میشود مبهم، کلی، یا فاقد جهتگیری تحلیلی باشد، مدل نیز پاسخی کلیشهای، سطحی یا حتی انحرافی تولید میکند. این مسئله نه فقط به ضعف در فناوری، بلکه به کمتجربگی در طراحی پرسشهای تحلیلی بازمیگردد.
سرویس علم خبرگزاری کتاب ایران (ایبنا) – محمد نجاری، معاون مرکز نوآوری و توسعه فناوری پژوهشگاه علوم انسانی و مطالعات فرهنگی: در ترم جاری، بهعنوان بخشی از یک نوآوری آموزشی، به دانشجویانم در دو مقطع ارشد و دکتری، اجازه داده شد تا برای تحلیل و پاسخگویی به پرسشهای مرتبط با متون ادبی، نمایشی و سینمایی از ابزارهای هوش مصنوعی، بهویژه مدلهای زبانی مولد، استفاده کنند. هدف از این تجربه، آشنا کردن دانشجویان با ابزارهای نوین و تقویت مهارتهای دیجیتال در کنار توان تحلیلی بود. با این حال، ارزیابی پاسخهای دریافتی، نتایجی نگرانکننده به همراه داشت: بسیاری از پاسخها سطحی، نادرست، یا حتی حاوی اطلاعات ساختگی بودند. این مسئله مهم مرا برآن داشت تا تحلیلی عمیقتر از علل این ناکارآمدی و الزامات بهرهگیری صحیح از هوش مصنوعی در حوزه تحلیل متون علوم انسانی و هنر ارائه کنم.
۱. کاستیهای ذاتی مدلهای زبانی در درک هنری و تفسیری
مدلهای زبانی مانند جی.پی.تی، علیرغم توانایی شگفتانگیزشان در تولید متن با ساختار زبانی درست و روان، فاقد درکی عمیق از معنا هستند. این مدلها با تحلیل آماری توالی کلمات و بدون تجربه زیسته یا شناخت وجودی از جهان، کار میکنند. تحلیل یک متن ادبی یا فیلمنامه، بیش از آنکه بازنویسی واژگان باشد، مستلزم درک تأویلپذیری، چندمعنایی، سبک، لحن، و پیوندهای بینامتنی اثر است.
برای مثال، در تحلیل شعر مدرن یا درام اگزیستانسیالیستی، فهم مضمون مستلزم دانش ضمنی از جریانهای فلسفی، تاریخ اندیشه، و نیز حساسیت زیباییشناختی است. مدلهای زبانی در بهترین حالت، ممکن است اصطلاحات و ترکیبهایی شبیه به این مفاهیم تولید کنند، اما بدون شالودهای معرفتی، این بازتولیدها صرفاً سطحی باقی میمانند.
۲. فقر منابع آموزشی تخصصی در مدلهای زبانی
یکی دیگر از علل ضعف پاسخهای هوش مصنوعی در تحلیل متون ادبی و هنری، ترکیب دادههای آموزشی آنهاست. اکثر این مدلها از منابع عمومی، اینترنتی و بعضاً غیرمعتبر آموزش دیدهاند. در حالی که ادبیات، نقد تئاتر و مطالعات سینمایی نیازمند بهرهگیری از منابع آکادمیک، ژورنالهای تخصصی، و متون نظریهپردازانه هستند، این منابع یا در دادههای آموزشی این مدلها وجود ندارند یا سهم ناچیزی دارند. در نتیجه، حتی اگر ظاهر پاسخ علمی و دقیق باشد، محتوا اغلب برگرفته از کلیگوییهای اینترنتی، مقالههای سطحی، یا نقدهای غیرآکادمیک است. این امر بهویژه در مواردی که دانشجویان خود نیز فاقد دانش قبلیاند، میتواند موجب پذیرش بیچونوچرای اطلاعات نادرست شود.
۳.پ دیده هلوسینیشن و خطر اطلاعات ساختگی
یکی از ویژگیهای نگرانکننده مدلهای زبانی، تولید اطلاعات جعلی در قالبی معتبر و قانعکننده است؛ پدیدهای که در ادبیات پژوهش به با عنوان «هلوسینیشن» شناخته میشود. در متونی که تحلیل نظری، ارجاع تاریخی، یا اتکا به شواهد خاص ضروری است، این ویژگی میتواند خطرناک باشد.
برای مثال، در مواردی مشاهده شد که مدل، کتاب یا مقالهای جعلی را به یک منتقد واقعی نسبت میداد، یا گفتوگویی خیالی میان شخصیتهای یک نمایشنامه خلق میکرد. اگر دانشجو فاقد مهارت صحتسنجی باشد، این اطلاعات بهراحتی در متن تحلیلی جای میگیرند و خطا را بازتولید میکنند.
۴. ضعف در مهارتهای ارزیابی انتقادی و خوانش نقادانه
یکی دیگر از عوامل مؤثر، شیوه استفاده از هوش مصنوعی توسط دانشجویان است. بسیاری از دانشجویان متن تولیدشده را بدون هیچگونه بازبینی، تحلیل، یا ارزیابی انتقادی، بهعنوان پاسخ نهایی ارائه میدهند. این رویکرد مصرفگرایانه نهتنها با اهداف آموزش عالی به ویژه برای دانشجویان ارشد و دکتری در تضاد است، بلکه زمینه را برای تقلیل سطح تفکر تحلیلی فراهم میکند.
تحلیل متون هنری، بر مبنای درگیری فعال با اثر، طرح فرضیه، نقد و ارزیابی استوار است. اما استفاده منفعلانه از هوش مصنوعی، به جای تحریک ذهن دانشجو، تبدیل به نوعی جایگزینی تفکر با تولید ماشینی میشود. چنین الگویی، خلاقیت، استدلال و ظرفیت تفسیر را تضعیف میکند.
۵. کیفیت ضعیف طراحی پرسشها
هوش مصنوعی، به شدت به کیفیت ورودی وابسته است. اگر پرسشی که به مدل داده میشود مبهم، کلی، یا فاقد جهتگیری تحلیلی باشد، مدل نیز پاسخی کلیشهای، سطحی یا حتی انحرافی تولید میکند. این مسئله نه فقط به ضعف در فناوری، بلکه به کمتجربگی در طراحی پرسشهای تحلیلی بازمیگردد. پرسش تحلیلی باید ناظر به مؤلفههای خاص اثر، چارچوب نظری مشخص و دلالتهای چندگانه معنا باشد. نبود این دقت، حتی در مواجهه با شخصیت استاد انسانی نیز میتواند پاسخهای ضعیف به دنبال داشته باشد؛ اما در مواجهه با مدلهای زبانی، خطر چند برابر میشود.