هوش مصنوعی و کنترل معنادار بشری: سازوکارهای واکنش پذیر به دلایلِ نسبت-به-عامل-خنثی و امکانِ ردگیری عامل(های) مسئول(مقاله علمی وزارت علوم)
حوزههای تخصصی:
بخشی از مسائل اخلاقی مرتبط با هوش مصنوعی به خصلت خودگردانی و مسئله شکاف مسئولیت مرتبط است. سیستم های خودگردانِ مجهز به هوش مصنوعی قادر به ایجاد رویدادهایی هستند که اگر انسان آنها را ایجاد کرده بود به آنها «تصمیم» گفته می شد؛ و اگر این «تصمیم ها» خسارتی به بار می آورد، انسانی مسئول آن می شد. اما وقتی تغییرات را ابزارهای تکنولوژیک خودگردان ایجاد می کنند، هرچند همچنان نیاز به پذیرشِ مسئولیت وجود دارد، اما ممکن است چیزی مسئول آن قلمداد نشود. لذا پیشنهاد شده که تکنولوژی های خودگردان در صورتی تحتِ مسئولیت انسان باقی بمانند که دو الزام را برآورده کنند: (1) این قابلیت که دلایل انسانی را «ردیابی» کنند؛ و (2) با دنبال کردن زنجیره دلایل انسانی یک عاملِ انسانی «ردگیری» شود. این شروط برای مصنوعات تکنولوژیک و هوش مصنوعی خودگردان ابهامات متعددی را ایجاد خواهد کرد. از آن جمله این است که دلایلِ اخلاقی ای که باید ردیابی شوند غالباً نسبت به عامل(ها) خنثی هستند، اما ردگیری یک عاملِ انسانی تنها از طریق دلایل وابسته-به-عامل امکان پذیر است. در این مقاله با تحلیل تعبیرهایی که از دو شرط مطرح شده ارائه می شود از یک تعبیر که پیش از این پیشنهاد نشده به عنوان کم مسئله ترین تعبیر از جهت حل مسئله ذکرشده دفاع خواهد شد. برای این کار استدلال می شود که شکاف مسئولیت زمانی پر می شود که تاریخچه رویدادهایی که توسط سامانه های خودگردان ایجاد می شود شامل فرایندی باشد که طی آن عامل مجموعه ای از دلایل هنجاری را به عنوان دلایل قابل قبول خود بپذیرید. اگر دلایلی که مطابق آنها سیستم به صورت خودگردان رفتار می کند متعلق به یک عامل بشری باشد، آنگاه مسئولیت رویدادهایی که ایجاد می شود نیز متعلق به آن عامل خواهد بود.