لزوم تدوین رویکردی اخلاق‌محور در مواجهه با هوش مصنوعی

در نشست «در باب انسان‌گرایی دیجیتال» مطرح شد؛

لزوم تدوین رویکردی اخلاق‌محور در مواجهه با هوش مصنوعی

علیرضا صائبی در نشست «در باب انسان‌گرایی دیجیتال» با اشاره به مسئله عاملیت انسانی و شفافیت الگوریتمی و با واکاوی مفاهیم کتاب «چشم اندازهایی بر انسان‌گرایی دیجیتال» نسبت انسان و فناوری را به چالش کشید و از لزوم تدوین رویکردی اخلاق‌محور در مواجهه با هوش مصنوعی سخن گفت.

به گزارش خبرگزاری کتاب ایران (ایبنا) به نقل از روابط عمومی خانه کتاب و ادبیات ایران، نشست «در باب انسان‌گرایی دیجیتال» از سلسله نشست‌های «رواق تورق» با حضور علیرضا صائبی، پژوهشگر و مترجم کتاب «چشم اندازهایی بر انسان‌گرایی دیجیتال» سه شنبه (چهاردهم مرداد ۱۴۰۴) در سرای اهل قلم خانه کتاب و ادبیات ایران برگزار شد.

 

قدرت الگوریتم‌ها در دستان داده‌ها
علیرضا صائبی در ابتدای این نشست با اشاره به مباحثه مطروحه در کتاب چون اخلاق، عدالت دیجیتال، حریم شخصی و مسئله شفافیت الگوریتمی، منظور از انسان‌گرایی دیجیتال را به قرار دادن انسان در محور تحول و توسعه دیجیتال نسبت داد و گفت: تحول دیجیتال با شتابی چشم‌گیر در حال دگرگون ساختن زندگی انسان است؛ به‌ویژه با ورود فناوری‌های دیجیتالی و ماشین‌های شناختی هوشمند به زندگی روزمره، شور و اشتیاق مهندسان و توسعه‌دهندگان برای پیشرفت‌های تکنولوژیک و نوآوری‌های فناورانه به شدت افزایش یافته است و هر روز شاهد عرضه محصولی جدید به بازار هستیم. یکی از مسائلی که به نظر می‌رسد کمتر به آن توجه شده، ضرورت قرار دادن انسان در مرکز این تحولات است؛ موضوعی که ما از آن با عنوان «انسان‌گرایی دیجیتال» یاد می‌کنیم.


وی افزود: انسان‌گرایی دیجیتال رویکردی چندوجهی و فرارشته‌ای است که تلاش دارد انسان و ارزش‌های انسانی را در مرکز تحول دیجیتال قرار دهد. یکی از اهداف این رویکرد، پاسداری از عاملیت انسانی در برابر سلطه ماشین است. در کتاب «چشم اندازهایی بر انسان‌گرایی دیجیتال» به‌درستی تأکید شده است که اگر به این موضوع توجه نشود این الگوریتم‌ها هستند که قضاوت می‌کنند، تصمیم می‌گیرند، نوبت می‌دهند و در نهایت، جای انسان را می‌گیرند؛ یعنی همان از دست رفتن عاملیت انسان.


صائبی با اشاره به اینکه ما به‌اشتباه چت‌بات‌ها را هوش مصنوعی می‌نامیم، تأکید کرد: در واقع، این چت‌بات‌ها تنها از ابزارهای هوش مصنوعی با زبان انسانی بهره می‌برند. مدل‌های اولیه هوش مصنوعی بین سال‌های ۱۹۵۰ تا ۱۹۷۰ ساخته شدند و پس از آن، داده‌ها و روش‌های تصمیم‌گیری به‌تدریج به الگوریتم‌ها منتقل شد و ماشین، آغاز به تصمیم‌گیری کرد.


این پژوهشگر ادامه داد: در سال‌های اخیر با افزایش چشمگیر داده‌ها، ماشین‌های هوش مصنوعی با حجم زیادی از اطلاعات به تصمیم‌گیری می‌پردازند. قدرت پردازش بالای ماشین‌ها و توان آن‌ها در بررسی داده‌های متنوع، امکان مدل‌سازی‌هایی را فراهم می‌کند که از توان انسان فراتر است. از سال ۲۰۲۳ نیز نوعی هوش مصنوعی مولد ظهور کرده که قادر به تولید محتواست؛ نه صرفاً پردازش.


مترجم کتاب «چشم اندازهایی بر انسان‌گرایی دیجیتال» در ادامه سخنانش تاکید کرد: با توجه به ظهور هوش مصنوعی مولد، داده‌های انبوه و دیگر موارد مرتبط، بحث اخلاق در این حوزه بیش از پیش مورد توجه قرار گرفته است و اکنون با چالش‌های جدی اخلاقی و فلسفی مواجهیم. یکی از مسائل مهم، این است که اکنون کسی مسئولیتی را در مواجهه با عملکرد هوش مصنوعی برعهده نمی‌گیرد. برای مثال، اگر یک هوش مصنوعی توصیه‌ای به کاربر کند که منجر به ضرر مالی شود، هیچ‌کس مسئولیت آن را نمی‌پذیرد. البته در برخی کشورها، چارچوب‌های قانونی برای این موضوع تعریف شده است؛ مثلاً در ایالات متحده مسئولیت متوجه شرکت توسعه‌دهنده و در آلمان متوجه برنامه‌نویس است.


وی با اشاره به تفاوت نتایج تحلیل ذهن انسان و ماشین گفت: موضوع مهم دیگر، سوگیری هوش مصنوعی است. ماشین، بر اساس داده‌هایی که دریافت می‌کند، نتیجه‌گیری می‌کند و نمی‌تواند مانند ذهن انسان با انعطاف‌پذیری نسبت به داده‌های مشابه، نتایجی متفاوت ارائه دهد. بنابراین، داده‌های آموزشی نقش مهمی در جهت‌دهی به رفتار هوش مصنوعی دارند.


با هوش مصنوعی نجنگیم، آن را بشناسیم
صائبی این مسائل اخلاقی را مستقیماً بر هویت انسانی اثرگذار دانست و مطرح کرد: در حالی که هوش مصنوعی برای تسهیل زندگی انسان ساخته شده اما اکنون ورود آن به زندگی روزمره، استقلال و آزادی انسان را تحت‌تأثیر قرار داده است.


وی از هوش مصنوعی عمومی با نام «فراهوش» یاد کرد و گفت: این فراهوش به نوعی نرم‌افزار اطلاق می‌شود که می‌تواند همانند یا حتی بهتر از انسان، بسیاری از وظایف را انجام دهد. انسان در مواجهه با شرایط جدید، تصمیم‌هایی می‌گیرد که ناشی از هوشمندی اوست و اکنون هوش مصنوعی عمومی در حال رسیدن به چنین مرحله‌ای است. مشکل زمانی بروز پیدا می‌کند که این هوش به سطحی برسد که تصمیم‌هایی فراتر از تجربه بشر بگیرد؛ جایی که قوانین و مقررات موجود پاسخ‌گو نیستند.


این پژوهشگر همچنین بیان کرد: از دیگر مباحث مطرح‌شده در کتاب، عدالت دیجیتال و دسترسی آزاد به ابزارهای هوش مصنوعی و اینترنت است. در حال حاضر حدود دو و نیم میلیارد نفر در جهان به اینترنت دسترسی ندارند و این امر، علاوه بر تأثیر بر زیرساخت‌های ارتباطی، بر محرومیت از آموزش نیز اثر مستقیم دارد. در «انسان‌گرایی دیجیتال» تأکید شده که دسترسی دیجیتال یک حق جهانی است و نه امتیاز. این موضوع، اکنون در اهداف توسعه پایدار سازمان ملل نیز گنجانده شده است.


او با اشاره به قوانین جهانی حفاظت از داده‌های شخصی گفت: در کتاب «انسان‌گرایی دیجیتال» حقوق مرتبط با حریم خصوصی افراد در مقابل هوش مصنوعی بررسی شده است. داده‌های هویتی، اطلاعات تماس، اطلاعات مالی و داده‌های رفتاری، همگی جزو داده‌هایی هستند که باید تحت حمایت قرار گیرند.


این مترجم ادامه داد: شفافیت الگوریتمی موضوع مهم دیگری است که در کتاب به آن پرداخته شده است. ما هم ابزارهای هوشمند مفید داریم که عملکردشان قابل تحلیل است و هم ابزارهایی که به «جعبه سیاه» معروف‌اند؛ یعنی سیستم‌هایی که خودآموزند و بدون شفافیت، تصمیم می‌گیرند.


علیرضا صائبی در پایان با طرح این سوال که در مواجهه با موج گسترده هوش مصنوعی آیا تصمیمات ماشین الزاماً بهتر از انسان است؟ گفت: پاسخ منفی است. ما باید در تعامل با این ابزارها آگاهانه عمل کنیم، از داده‌های خود محافظت کنیم، اطلاعات‌مان را به‌روز نگه داریم و حد و مرز روشن و دقیقی در استفاده از ماشین‌های هوشمند ترسیم کنیم. در نهایت، نباید از این ابزارها ترسید، بلکه باید آن‌ها را شناخت، مدیریت کرد و مسئولانه به‌کار گرفت.