مسائل اخلاقی در هوش مصنوعی

   مسائل اخلاقی ای که با پیشرفت تکنولوژی پیش روی ما قرار خواهند گرفت، برای اولین بار توسط فيلسوفي به نام فیلیپا فوت[1]  در سال 1967 مطرح  شدند. او مثال واگن های برقی را مطرح کرد. در این مثال او می گوید: ”یک واگن برقی در حال حرکت روی خط آهن به یک چند راهی می رسد. اگر واگن در همان مسیر خود حرکت کند، 5 نفر از کارگران که مشغول کار روی خط آهن هستند کشته خواهند شد. اگر راننده مسیر قطار را منحرف کند، یک نفر کشته خواهد شد. اگر شما این قطار را هدایت می کردید، چه می کردید؟ اگر یک روبات قطار را هدایت می کرد، چه می کرد؟ اگر یک ناظر بیرونی- و نه راننده- قدرت خراب کردن مسیر و تغییر مسیر قطار را داشت چه اتفاقی می افتاد؟ اگر یک ناظر بیرونی می توانست قطار را با پرتاب کردن یک “مرد چاق” روی خط آهن متوقف کند چه؟”[2]

  با ظهور سیستم “قطارهای بدون راننده “[3] در مترو لندن، پاریس و کپنهاگ، ماشین ها در جایگاه تصمیم گیریهای دو گانه ای قرار گرفتند که می توانستند بر مفاهیم مرگ یا زندگی دلالت داشته باشند. البته مهندسان معتقدند كه این سيستم ها ايمن هستند، اما مردم هميشه نسبت به آنها مشكوك بوده اند. امروزه خط مركزي قطارها در لندن اكنون در ايستگاه ها بوسيله كامپيوتر رانده مي شوند، اگرچه رانندگان انساني در جايگاه لوكوموتيوران در نقش “ناظر”[4] باقي مي مانند. بيشتر مسافران معتقدند كه رانندگان انساني انعطاف پذيرتر هستند و بهتر از كامپيوترها مي توانند از عهده موقعيت هاي اضطراري برآيند. اما اين ممكن است غرور انساني باشد. مورتن سوندرگارد[5]، مسئول امنيت متروي كپنهاگ، مدعي است كه “قطارهاي خودكاردر شرايط عقب نشيني اضطراري، به خاطر سرعت تغيير جدول ساعات كاري، ايمن تر و انعطاف پذير تر هستند.”[6]

  اما بيشتر مسافران همچنان فكر می کنند كه موقعيتهاي بحراني اي وراي حوزه هرگونه برنامه ريزي  وجود دارند، جايي كه قضاوت انساني ترجيح خواهد داشت. در برخي از آن موقعيت ها، اين قضاوت، ملاحظات اخلاقي را در بر خواهد داشت.

  این امر مستلزم آن است که مهندسان نرم افزاری تلاش کنند تا سیستم های خود را به ابعاد اخلاقی مجهز کنند. همانطور که اطلاعات قابل دسترسی سیستم های خودکار بیشتر می شود، معماهای اخلاقی ای که سیستم با آنها مواجه می شود هم پیچیده تر خواهد شد. کامپیوتری را تصور کنید که تشخیص می دهد که در یکی از مسیرهای خط آهن 5 کارگر هستند و در مسیر دیگر فقط یک نفر وجود دارد، اما آن یک نفر یک کارگر نیست، اما شهروند برجسته اي است كه سعادت و معيشت تعداد زيادي از خانواده ها به او بستگي دارد. مردم از كامپيوتر ها انتظار دارند در این شرایط بتوانند ارزشهای اخلاقی را در تصمیم گیریهای خود اعمال کنند. برخی از مهندسان در پاسخ به چنین چالشهایی راه حل “سکون” را پیشنهاد می کنند. مثلاً روباتی را در نظر بگیرید که وظیفه دارد موانع سر راه خود را بردارد. آیا نباید تشخیص دهد که مانع سر راهش یک بچه است، یک حیوان خانگی است یا یک جعبه خالی و طبق ارزیابی خود عمل کند؟

  انگلبرگر[7]، احساس كرد كه چنين سيستمي در اعمال خود نيازي به استعداد عكس العمل نشان دادن ندارد. او گفت ” اگر چيزي سر راه وجود دارد، روبات تنها مي ايستد.”[8] البته اين نوع سكون هم مي تواند مشكل ساز باشد، ممکن است با وظايف و اموري كه براي روبات تعريف شده اند تداخل  داشته باشد، مثلاَ‌ با ارسال هر چند ساعت يك بار داروها براي فردي كه روبات به او خدمت مي كند.

  اما ‌طراحان AMA  نمي نوانند سكون را صرفاَ‌ به عنوان جايگزيني براي عمل خوب انتخاب كنند.

  مسائل اخلاقی ای که با پیشرفت تکنولوژی و پیدایش هوش مصنوعی سر راه ما قرار می گیرند را می توان از دو جهت بررسی کرد. جهت اول، پرسش هایی است که هوش مصنوعی در حوزه اخلاق و انسانیت مطرح می کند، پرسش هایی از قبیل اینکه هوش مصنوعی چه تأثیری روی ذات انسان می گذارد و آیا کرامت انسانی با پیشرفت تکنولوژی از بین می رود؟ و یا اینکه برای فاعل های مصنوعی، خوب بودن به چه معناست و فاعل های مصنوعی در چه صورتی یک فاعل اخلاقی خوب خواهند بود؟

  جهت دوم، مسایلی است که تکنولوژی کامپیوتری و هوش مصنوعی برای انسان ایجاد می کنند و خطراتی را بررسی می کند که  استفاده از این ابزارها و تکنولوژی ها برای ما دارند. در اینجا ما به نوبت هر دو جنبه را بررسی می کنیم. رشته اخلاق کامپیوتر از قبل به بررسی مسائلی که استفاده از کامپیوترها برای انسان ایجاد می کنند، از قبیل حفظ حریم خصوصی، مالکیت فکری، جلوگیری از هک کردن و .. می پردازد و اخلاق ماشین هم در کنار اخلاق کامپیوتر مسائلی را مطرح می کند که کاربردها گوناگون هوش مصنوعی، از جمله سیستم های خبره، بینایی کامپیوتری، پردازش زبان طبیعی و … برای انسان ایجاد می کند.

[1] – Philippa Foot

[2] -Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong,Oxford University Press 2009,p:26

[3] -Driverless train system

[4] -supervisory role

[5] – Morten Sondergaard  

[6] – Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong, Oxford University Press 2009,p:27

[7] – Engelberger

[8] – Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong, ,p:28

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *