اصول اخلاقی به دایره هوش مصنوعی

1392/4/29

مجله "ساینتیفیک آمریکن" در شماره 14اکتبر 2010 خود می نویسد:  "در سناریوی کلاسیک ضد آرمانشهری (ضد اوتوپیایی)   داستان های تخیلی علمی، ماشین ها به اندازه کافی هوشمند می شوند تا بتوانند انسان ها را به چالش بگیرند، در عین حال آنها هیچ ملاحظه ی اخلاقی برای آسیب رساندن و حتی نابود کردن انسان ها ندارند.   البته، روبات های امروزی معمولا برای کمک به انسان ها ساخته می شوند.  اما، چنین است که حتی در موقعیت های کاملا معمولی آنها با انبوهی از دوراهی های اخلاقی روبرو می شوند که هوش مصنوعی یا AI را در حد نهایی اش به آزمایش می گذارد.   
"تصور کنید که در مکانی که برای ناتوانان جسمی است زندگی می کنید – جایی که احتمالا بزودی حضور روبات ها در آنها عادی خواهد بود. حالا حدود ساعت 11 بامداد است، و شما از روبات مددکار در اتاق نشیمن می خواهید که کنترل تلویزیون را به شما بدهد تا بتوانید تلویزیون را روشن کرده و مثلا برنامه "ویو" را ببینید.  اما، ساکن دیگری هم می خواهد کنترل را داشته باشد تا برنامه ... [دیگری] را تماشا کند.  روبات تصمیم می گیرد که کنترل را به نفر دومی بدهد.  در ابتدا، شما عصبانی هستید.  اما، روبات به شما توضیح می دهد که تصمیمش عادلانه بوده است زیرا شما توانسته بودید این برنامه مورد علاقه خود را در روز قبل تماشا کنید.  این داستان نمونه ای از تصمیم گیری های اخلاقی عادی [برای ما انسان ها] است، اما، برای ماشین ها، چنین تصمیم گیری هایی به طرزی شگفت آوری دشوار است ... 
 
چکیده نکات مهم مقاله:
 
"روبات هایی که تصمیم های مستقل می گیرند، مانند آنهایی که برای کمک به سالمندان ساخته شده اند، ممکن است حتی در موقعیت های به ظاهر روزمره با دوراهی های اخلاقی روبرو شوند.
 
"یک راه برای تضمین رفتار اخلاقی روبات هایی که با انسان ها مراوده می کنند آن است که این روبات ها با اصول همگانی اخلاقی برنامه ریزی شوند، و به آنها اجازه داده شود تا بر اساس آن اصول مورد به مورد تصمیم بگیرند.
 
"روش های هوش مصنوعی خود می تواند از طریق منطق و با انتزاعی کردن اصول از موردهای خاص اخلاقی رفتارهایی که مورد پذیرش آن اصول است را تولید نماید.
 
"نویسندگان مقاله [ساینتیفیک امریکن] از این روش پیروی کرده و برای اولین بار توانستند روباتی را برنامه ریزی کنند که بر اساس آن اصول اخلاقی حرکت نماید."
تگ ها