نمیتوان در مقابل هوش مصنوعی مرز کشید
نخستین نشست از سلسله نشستهای « فرهنگ عمومی، اخلاق و هوش مصنوعی » دوشنبه ۱۶ آبان ۱۴۰۱ با همکاری شورای فرهنگ عمومی و با حضور احمد پاکتچی (سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو)، محمد حسینیمقدم (عضو هیاتعلمی گروه مطالعات آیندهنگر موسسه مطالعات فرهنگی و اجتماعی)، سیدعلی حسینی (دکتری هوش مصنوعی از دانشگاه لندن) و با دبیری محمد نصراوی (دانشجوی دکتری سیاستگذاری فرهنگی) در پژوهشگاه فرهنگ، هنر و ارتباطات، برگزار شد.
در بخش اول این برنامه احمد پاکتچی درباره سند اخلاق هوش مصنوعی در یونسکو به ایراد سخن پرداخت و در باب چیستی هوش مصنوعی گفت: هوش مصنوعی بهعنوان یک فناوری نوین، پدیدهای است بهشدت در حال توسعه که بسیاری از کشورها، سازمانهای بینالمللی و خیلی از متفکران را به این سمت سوق داده که قبل از اینکه برای بشریت اتفاق یا فاجعهای رخ دهد، تدبیری در این باره بکنند تا هوش مصنوعی مسیر لجامگسیختهای را طی نکند و به بشر صدمهای نزند. شاید بهطور خاص از سال ۲۰۱۹ تاکنون، موضوع داشتن ابزارهای کنترلی بر روی هوش مصنوعی مورد توجه دولتها و سازمانهای بینالمللی قرار گرفته است.
او با مروری بر سندهای مختلف تصویبشده از سال ۲۰۱۹ تا ۲۰۲۲، از یک دومینوی خیلی تند و سریع یاد کرد و افزود: در این سه سال اسنادی در کشورهای مختلف تصویب شده که شبیه یک دومینوی تند و سریع است. در ژانویه ۲۰۱۹، ایالات متحده آمریکا، سندی تحت عنوان «راهنمای تنظیمات کاربستهای هوش مصنوعی» تصویب کرد که بیشتر آییننامهای بود. چند ماه بعد، اتحادیه اروپا سند دیگری را تحت عنوان «توصیههای سرمایهگذاری برای هوش مصنوعی قابل اعتماد» تصویب کرد تا توصیههایی برای حرکت به سمت هوش مصنوعی قابل اعتماد از حیث سرمایهگذاری ارائه دهد. در ۸ آوریل همان سال، اتحادیه اروپا سند دیگری تحت عنوان «هوش مصنوعی قابل اعتماد» تصویب کرد که این بار سعی میکند خطوط راهنمای اخلاقی را برای قابل اعتمادسازی هوش مصنوعی ارائه کند. سرعت و شتاب این بازی دومینو، هرچه که ما به سمت ۲۰۲۱ حرکت میکنیم، بیشتر میشود. در سپتامبر ۲۰۲۱، شاهد تصویب یک سند ملی با عنوان «هنجارهای اخلاقی برای استفاده هوش مصنوعی» در جمهوری خلق چین هستیم که دقیقاً یک ماه پس از آن، در فدراسیون روسیه هم، اقدام مشابهی صورت میگیرد. در فاصله روزهای ۹ تا ۲۴ام نوامبر ۲۰۲۱ هم، توصیهنامهای در چهل و یکمین کنفرانس عمومی سازمان بینالمللی یونسکو با عنوان «توصیهنامه اخلاق هوش مصنوعی» تصویب میشود که بازتابهای مختلفی ازسوی کشورهای مختلف ازجمله ایران داشته است. جمهوری اسلامی ایران، تنها کشوری بود که درباره این توصیهنامه تحفظ داد و آن را بهطور رسمی به دبیرخانه یونسکو اعلام کرد. فارغ از دغدغههایی که ممکن است نهادهای مختلف کشور درمورد این سند داشته باشند، این اتفاق به عنوان یک واقعیت غیرقابل انکار در سطح جهانی در حال رخ دادن است که نمیتوان در مقابل آن، مرزهای ملی کشید. ما در این خصوص نیازمندیم که هم سند ملی خودمان را در زمینه اخلاق هوش مصنوعی داشته باشیم و هم بتوانیم سیاستگذاری مناسبی درباره سندهای جهانی داشته باشیم.
سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو به تعارضهای ممکن و محتمل هوش مصنوعی در آینده نیز اشاره و تصریح کرد: توجه به مساله اخلاق زمانی جدی میشود، که در تعارض با قوانین و سیاستها قرار گیرد به گونهای که امکان عمل کردن به هردوی آنها نباشد. درخصوص توصیهنامه اخلاق هوش مصنوعی یونسکو هم، تعارضاتی با قوانین کشورها دیده میشود. ازجمله اینکه طبق قوانین کشورها، آنها باید در اعمال حاکمیت خود مستقل و مختار باشند که این توصیهنامه محدودیتهایی را بر آنها تحمیل میکند. به همین دلیل، برخی از کشورها زیر بار آن نمیروند. از طرف دیگر، اگر همه کشورها اطلاعاتشان را در اختیار هم بگذارند، ممکن است در نگاه اول این اقدام، دوستانه به نظر بیاید اما واقعیت این است که کشورهایی از این کار بیشترین سود و بهره را میبرند که پلتفرمهای جهانی را در اختیار دارند. موضوع تعارض قوانین با اخلاق، موضوعی است که باعث میشود به دنبال سازوکارهایی باشیم تا دسترسی عادلانهتر به دستاوردهای هوش مصنوعی را برای ما فراهم کند. از دیگر تعارضهای ممکن، مساله تعارض اخلاق با سودطلبی اقتصادی است که در این خصوص، کمپانیهای بزرگ، سودهای کلان خود را بر اخلاق ترجیح خواهند داد. همچنین، یکی دیگر از مسائلی که در حوزه هوش مصنوعی وجود دارد و میتوان از آن به عنوان یکی از تعارضها یاد کرد، مساله نظامیگری یا سلاحشدگی هوش مصنوعی است. یکی از نگرانیهایی که امروز وجود دارد، بعد نظامی هوش مصنوعی و تبدیل آن به یک سلاح نظامی است که میتواند روابط امنیتی در سطح جهان را دگرگون کند. لذا یکی از پرسشهای اساسی این است که دستورالعملهایی که برای کاربرد هوش مصنوعی تنظیم میشود، برای کاربردهای غیرنظامی هستند یا همه کاربردها از جمله کاربرد نظامی هوش مصنوعی را هم شامل میشود؟ هنوز این مسائل در توصیهنامه هوش مصنوعی یونسکو شکافته نشده و به همین دلیل است که میگوییم، هنوز راه نرفته، بسیار داریم.
پاکتچی در پایان با اشاره به چالشهای موجود تاکید کرد: اینکه چگونه میتوان تناسبی بین اخلاق هوش مصنوعی با قوانین، مقررات و سیاستهای کشورهای مختلف برقرار و چگونه میتوان تعارضها را برطرف کرد، بحثهای جدی و حساس هستند که هنوز روی میز هستند. با توجه به حساسیت جمهوری اسلامی ایران در ارتباط با تکتک این موارد، انتظار میرود که کارشناسان و متخصصان ایرانی خیلی جدیتر، پیشروتر و دقیقتر وارد این بحث و گفتگو شوند.
او با اشاره به سطح بهرهمندی جامعه علمی ایران از هوش مصنوعی افزود: نحوه رویارویی جامعه علمی ایران با هوش مصنوعی هم اهمیت دارد. در برآورد جهانی سطح بهرهمندی از ربات در برنامههای آموزشی، رتبه ایران ۳٪ بوده است. همچنین، جایگاه جهانی ایران در تولید مقالات بینالمللی در هوش مصنوعی از ۱۹۸۰ تا ۲۰۲۰، جایگاه برجستهای است که این نشان میدهد جامعه علمی ایران توانسته به رغم همه مشکلات و چالشها، در تراز کشورهای صاحب این علم در تولید این علم و دانش، مشارکت داشته باشد. درخصوص کسب مهارتهای دیجیتال هم، جایگاه ایران در میانگین جهانی، به بالا است که این هم نشان میدهد شهروندان ما، مهارتهای دیجیتال را فراگرفتهاند که این خود میتواند دستمایه خوبی برای تحول و دستیابی به بلوغ در حوزه هوش مصنوعی باشد.
عضو هیاتعلمی موسسه مطالعات فرهنگی و اجتماعی به تغییراتی که هوش مصنوعی در حوزه علم و علمورزی ایجاد خواهد کرد نیز اشاره و خاطرنشان کرد: هوش مصنوعی به انحاء مختلف وضعیت علمورزی را متحول خواهد کرد. تحول در برنامههای پژوهشی، سرمایههای انسانی، بهکارگیری سرمایههای فیزیکی، همکاریهای علمی بینالمللی، زمان پژوهش، منابع مالی آن، چگونگی ارزیابی پژوهش و چگونگی دستیابی به اهداف پژوهش، از جمله این تحولات هستند. ستونهای تحول هوش مصنوعی را میتوان در قانونهای مور (افزایش ظرفیت پردازنده)، قانون کرایدرز (افزایش امکان ذخیره بیگ دیتاها) و قانون کوپر (افزایش سرعت پردازش)، توسعه الگوریتمهای هوش مصنوعی، توسعه نرمافزارهای منبع باز، توسعه سختافزارهای محاسباتی و دسترسی به دادهها برشمرد. برخی از این تحولات در حوزه پارادایمهای کشف علمی صورت خواهد گرفت که در آن از پارادایم مبتنی بر theory driven research به سمت یک پارادایم مبتنی بر data driven research خواهیم رفت. یعنی از مسیر تفسیر و تبین به سمت دادهها و نمونهها، گذار خواهیم کرد.
حسینی مقدم در پایان به ذکر چالشهای پیشروی توسعه علم در سایه هوش مصنوعی پرداخت که فقدان رویکردهای نظری برای یکپارچهسازی دادهها و مدلهای هوش مصنوعی در تحلیل کلاندادهها، شکاف میان دانشمندان و مهندسان در بهرهمندی از هوش مصنوعی (الگوریتم، سختافزار، نیروی انسانی و ...)، شکاف در دسترسی به دادهها، تقویت فرهنگ سلبریتی در علم، حکمرانی بنگاهها در پیشرفت علم و افزایش مشارکت علمی شرکتهای بزرگ در توسعه یادگیری عمیق در برابر دانشگاههای نخبه، ازجمله آنها بود.
سید علی حسینی سخنران سوم این نشست با اشاره به مهمترین مسائل موجود در حوزه اخلاق هوش مصنوعی اظهار داشت: یکی از مهمترین مسائلی که در اخلاق هوش مصنوعی مطرح است، حریم خصوصی افراد و دسترسی شرکتهای مختلف به دادههای افراد است که حریم خصوصی آنها را نقض میکند. شفافیت یا عدم شفافیت الگوریتمها و تصمیماتی که این الگوریتمها میگیرند، رعایت انصاف، مواسات و برابری در آموزش الگوریتمها، کاربرد هوش مصنوعی در حوزههای نظامی بهویژه استفاده از ابزار نظامی هوشمند مستقل و خودکار و نهایتاً مساله مسئولیتپذیری، از دیگر موارد مهمی هستند که در حوزه اخلاق هوش مصنوعی همواره مطرح هستند. یکی از بحثهای اولیهای که در توسعه دادن این ماشینها مطرح شد، بحث مسئولیتپذیری بود که چطور باید باشد و چه کسی باید پاسخگو باشد. مثلاً مسئولیت خسارت مالی افرادی که شغلشان را به رباتها میبازند، با چه کسی است؟ و یا اینکه مسئولیت در هنگام تصادف یک ماشین خودران، با کیست؟ اینها ازجمله سوالات مهمی است که در زمینه اخلاق هوش مصنوعی مطرح هستند.
او با اشاره به نقطه عطف توجه به مبحث اخلاق در هوش مصنوعی در اروپا اضافه کرد: یکی از نقاط عطف توجهی که در اروپا در قسمتهای مختلف جامعه به مبحث اخلاق و اخلاقمداری در هوش مصنوعی شد، اتفاق بین فیسبوک و شرکت انگلیسی کمبریج آنالتیکا بود که در مارس ۲۰۱۴ رخ داد که طی آن، دادههای کاربران فیسبوک و حساب رایدهندگان آمریکایی به عوامل روسی فروخته شد و مورد تبلیغات هدفمند قرار گرفت. این اتفاق و آبروریزی بزرگ، سرو صدای زیادی ایجاد و بحث اخلاق در هوش مصنوعی را پررنگ کرد.
حسینی با بیان اینکه هرکشور، شرکت و منطقهای تعریف، تفسیر و روش خاص خود را دارد، حساسیت ایران در مقابل هوش مصنوعی را یک رویکرد طبیعی دانست و گفت: شرکتها، مناطق و کشورها، تعاریف، تفاسیر و روشهای خاص خود را در زمینه هوش مصنوعی دارند. لذا اگر کشوری مثل ایران هم میخواهد اصول و روش خود را اجرا کند، کاملاً طبیعی است و این فرصت برای او باز است. مثلاً اروپا، بیشتر بر روی حفظ حریم خصوصی افراد تاکید دارد اما آمریکا، بیشتر به مسائلی مثل تبعیض نژادی و جنسیتی توجه میکند. اگر ما هم میخواهیم روی هوش مصنوعی کار کنیم، باید ببینیم چه مسائلی برای ما مهم است و هوش مصنوعی میتواند چه خدماتی به ما ارائه دهد.
گزارش از: فریبا رضایی