مطالب مرتبط با کلیدواژه
۱.
۲.
۳.
۴.
۵.
۶.
۷.
۸.
۹.
اخلاق هوش مصنوعی
منبع:
متافیزیک سال ۱۶ بهار و تابستان ۱۴۰۳ شماره ۳۷
93 - 110
حوزههای تخصصی:
هدف از پژوهش حاضر، بررسی مسائل اخلاق هوش مصنوعی در حوزه هنر است. به این منظور، با تکیه بر فلسفه و اخلاق هوش مصنوعی، موضوعات اخلاقی که می تواند در حوزه هنر تأثیرگذار باشد، بررسی شده است. باتوجه به رشد و توسعه استفاده از هوش مصنوعی و ورود آن به حوزه هنر، نیاز است تا مباحث اخلاقی دقیق تر مورد توجه پژوهشگران هنر و فلسفه قرار گیرد. برای دست یابی به هدف پژوهش، با استفاده از روش تحلیلی توصیفی، مفاهیمی همچون هوش مصنوعی، برخی تکنیک های آن و موضوعات اخلاقی هوش مصنوعی در هنر تبیین و بررسی شده است. نتایج پژوهش نشان می دهد موضوعات اخلاقی همچون حریم خصوصی و نظارت، دستکاری در رفتار، تاری و شفافیت، سوگیری در تصمیمات سیستم، و اتوماسیون و اشتغال حوزه هنر قابل بررسی است. این موضوعات اخلاقی، گاهی درتقابل و گاهی در ارتباط مستقیم و هم سو با یکدیگر قرار دارند. بررسی ها نشان می دهد پاسخ به پرسش های اخلاق هوش مصنوعی در حوزه هنر، نیازمند پاسخ به پرسش های اخلاقی به صورت عام در هوش مصنوعی است.
همگرایی حریم خصوصی و شفافیت، محدودیت های طراحی هوش مصنوعی(مقاله علمی وزارت علوم)
منبع:
حکمت و فلسفه سال ۲۰ تابستان ۱۴۰۳ شماره ۲ (پیاپی ۷۸)
45 - 73
حوزههای تخصصی:
هدف از این پژوهش نقد به رویکردی است که راهکار برطرف شدن چالش هایِ اخلاقیِ هوشِ مصنوعیِ را محدود به طراحی و اصلاحات فنی می داند. برخی پژوهش گران چالش های اخلاقی در هوش مصنوعی را همگرا تلقی می کنند و معتقدند این چالش ها همانطور که با ظهور سیستم هوش مصنوعی پدید آمدند، با پیشرفت و اصلاحات فنی آن مرتفع خواهند شد. در مباحثِ اخلاقِ هوش مصنوعی، موضوعاتی همچون حفاظت از حریم خصوصی و شفافیت در بیشتر پژوهش ها مورد توجه قرار گرفته است. در پژوهش حاضر با استفاده از روشِ تحلیلی-انتقادی، همگرایی میان شفافیت و حریم خصوصی در سیستم های یادگیری ماشین بررسی شده و رویکردی که رفع چالش های اخلاقی را به طراحی هوش مصنوعی محدود می داند به نقد گذاشته شده است. نتایج این بررسی نشان می دهد که همگرایی میان چالش های اخلاقی هوش مصنوعی وجود ندارد. همچنین با مطرح کردن سه چالش کمی سازی، محدودیت های تکنیکی و مباحث فرااخلاقی به نقد رویکردهایی که تنها بر طراحی و اصلاحات فنی متکی هستند پرداخته شد. نتایج این بخش نشان می دهد که نمی توان تنها با تکیه بر طراحی، به چالش های اخلاقی در هوش مصنوعی پاسخ داد و نیاز به استفاده از سایر روش ها مانند قانون گذاری و یا پیشرفت در سایر علوم در کنار توجه به طراحی وجود دارد.
بررسی عاملیت اخلاقی هوش مصنوعی عام(مقاله علمی وزارت علوم)
حوزههای تخصصی:
هدف از مقاله حاضر بررسی عاملیت اخلاقی هوش مصنوعی عام است. در بسیاری از پژوهش ها، عاملیت اخلاقی هوش مصنوعی در چهار دسته ۱- عامل تأثیر اخلاقی، ۲- عامل تأثیر اخلاقی ضمنی، ۳- عامل تأثیر اخلاقی آشکار و ۴- عامل اخلاقی کامل، تقسیم بندی می شود. در این مقاله با استفاده از روش تحلیلی-انتقادی سطح چهارم این دسته بندی یعنی عامل اخلاقی کامل در هوش مصنوعی عام موردبررسی قرار خواهد گرفت. در صورت امکان پذیر بودن هوش مصنوعی عام، چنین هوشی توانایی های فراوانی به دست می آورد، و لذا نگرانی های اخلاقی بسیاری وجود خواهد داشت. یکی از مهم ترین دلایل اهمیت مقاله حاضر این است که این دسته بندی عاملیت اخلاقی به تکرار مورداستفاده پژوهشگران قرارگرفته و نیاز به یک بررسی مجدد احساس می شود. نتایج بررسی حاضر نشان می دهد که اگر هوش مصنوعی عام امکان پذیر باشد باید آن را در دسته عامل اخلاقی کامل قرار داد. البته چنین عامل اخلاقی کاملی دو ویژگی دارد: اول، عاملِ اخلاقیِ هوشِ مصنوعیِ عام می تواند اصولِ اخلاقیِ انسان را یاد بگیرد و یا اصول اخلاقی دیگری از آن استنتاج کند؛ اما نباید تصور کرد که اصول اخلاقی انسان را اصول اخلاقی خود بداند؛ و دوم، عامل اخلاقی هوش مصنوعی عام می تواند اهداف و اصول اخلاقی خود را شکل دهد و این اصول ممکن است متفاوت/بر ضد اصول اخلاقی انسان ها باشد.
تحلیلی اخلاقی از رابطه احساسی انسان و هوش مصنوعی(مقاله علمی وزارت علوم)
منبع:
سیاست علم و فناوری سال ۱۷ زمستان ۱۴۰۳ شماره ۴ (پیاپی ۶۴)
19 - 30
حوزههای تخصصی:
تعاملات میان انسان و فناوری های تعاملی مبتنی بر هوش مصنوعی، به ویژه بات های اجتماعی، ویژگی های منحصربه فردی دارد که آن را از تعاملات انسان با انسان و سایر فناوری ها متمایز می کند. استفاده کاربران از بات های اجتماعی در جهان و به تبع آن در ایران رو به گسترش است که می تواند به شکل گیری پیوندهای احساسی میان کاربران و این ابزارهای هوشمند منجر شود. به دلیل ماهیت منحصربه فرد بات های اجتماعی و انتظاراتی که شرکت ها و تبلیغات در کاربران ایجاد می کنند، این فناوری ها می توانند موجب شوند کاربران به آنها نوعی عاملیت و احساسات نسبت دهند و پیوندهای عاطفی یک سویه ای را با آنها برقرار کنند. این پیوندها مسائل اخلاقی، اجتماعی و روان شناختی قابل توجهی را برای افراد و جوامع انسانی ایجاد می کند. این مقاله چالش های اخلاقی مرتبط با روابط انسان و بات های اجتماعی، از جمله نسبت دادن عاملیت و وابستگی عاطفی را بررسی می کند. علاوه بر این، سیاست ها و راه حل های احتمالی که برای کاهش این مشکلات پیشنهاد شده اند، مورد بررسی قرار می گیرند و بر راهبرد هایی تمرکز می شود که می توانند به نگرانی ها در مورد تأثیر این فناوری ها پاسخ دهند. با تحلیل انتقادی این چالش ها، این مطالعه به دنبال ارائه توصیه های سیاستی است که به پیامدهای استفاده از بات های اجتماعی در جامعه می پردازد. در نهایت، یافته ها نیاز به یک رویکرد متوازن را برجسته می کنند که هم مزایا و هم خطرات این فناوری ها را در نظر بگیرد و اطمینان حاصل کند که ادغام آن ها در زندگی روزمره با استانداردهای اخلاقی و ارزش های اجتماعی هم راستا است.
رابطه عواطف و ظرفیت اخلاقی در فناوری های هوش مصنوعی(مقاله علمی وزارت علوم)
منبع:
پژوهش های فلسفی بهار ۱۴۰۴ شماره ۵۰
19 - 40
حوزههای تخصصی:
فناوری های هوش مصنوعی، در مقایسه با مصنوعات پیشین دارای قابلیت هایی جدید هستند که مسائل اخلاقی متفاوتی را مطرح می کند. از جمله این مسائل، بحث درباره عاملیت اخلاقی هوش مصنوعی است. مسئله عاملیت اخلاقی مصنوعی، پرسش های نظری و عملیاتی مختلفی را مطرح می سازد؛ مانند این که شروط لازم و کافی برای عاملیت اخلاقی چیست، چطور می توان برقراری این شروط را در مصنوعات بررسی کرد، عاملیت اخلاقی دارای چه سطوح و درجاتی است و هر سطح از عاملیت اخلاقی برای واگذاری چه نوع وظایفی مناسب است. یکی از موضوعات پرتکرار در بحث حول عاملیت اخلاقی مصنوعی، عواطف است. فیلسوفان مختلفی به عواطف به عنوان عاملی اشاره کرده اند که در وجود یا عدم و میزان ظرفیت اخلاقی مصنوعات مدخلیت دارد. در این مقاله به رابطه میان عواطف و ظرفیت اخلاقی هوش مصنوعی خواهیم پرداخت. پرسش اصلی این است که عواطف در ارتقاء ظرفیت اخلاقی فناوری های هوش مصنوعی نقشی مثبت دارند یا منفی؟ چهار استدلال از جانب موافقین نقش مثبت عواطف در ظرفیت اخلاقی استخراج و صورت بندی می شود که شامل استدلال از طریق «حساسیت اخلاقی»، «عقلانیت محدود»، «برآورد خطر» و «مجازات پذیری» می شود. همچنین چهار استدلال از جانب مخالفین نقش مثبت عواطف در ظرفیت اخلاقی هوش مصنوعی ارائه می شود که شامل استدلال از طریق «ربایش عاطفی»، «سراب عواطف»، «پارادوکس انسان انگاری و انسانیت زدایی همزمان» و «مهارت زدایی اخلاقی» است. در نهایت، با شفاف سازی نقاط نزاع دو طرف بحث، دیدگاه های فوق مورد تحلیل قرار گرفته و چالش های اخلاقی پیاده سازی عواطف در هوش مصنوعی شرح داده می شود.
هوش مصنوعی و کنترل معنادار بشری: سازوکارهای واکنش پذیر به دلایلِ نسبت-به-عامل-خنثی و امکانِ ردگیری عامل(های) مسئول(مقاله علمی وزارت علوم)
حوزههای تخصصی:
بخشی از مسائل اخلاقی مرتبط با هوش مصنوعی به خصلت خودگردانی و مسئله شکاف مسئولیت مرتبط است. سیستم های خودگردانِ مجهز به هوش مصنوعی قادر به ایجاد رویدادهایی هستند که اگر انسان آنها را ایجاد کرده بود به آنها «تصمیم» گفته می شد؛ و اگر این «تصمیم ها» خسارتی به بار می آورد، انسانی مسئول آن می شد. اما وقتی تغییرات را ابزارهای تکنولوژیک خودگردان ایجاد می کنند، هرچند همچنان نیاز به پذیرشِ مسئولیت وجود دارد، اما ممکن است چیزی مسئول آن قلمداد نشود. لذا پیشنهاد شده که تکنولوژی های خودگردان در صورتی تحتِ مسئولیت انسان باقی بمانند که دو الزام را برآورده کنند: (1) این قابلیت که دلایل انسانی را «ردیابی» کنند؛ و (2) با دنبال کردن زنجیره دلایل انسانی یک عاملِ انسانی «ردگیری» شود. این شروط برای مصنوعات تکنولوژیک و هوش مصنوعی خودگردان ابهامات متعددی را ایجاد خواهد کرد. از آن جمله این است که دلایلِ اخلاقی ای که باید ردیابی شوند غالباً نسبت به عامل(ها) خنثی هستند، اما ردگیری یک عاملِ انسانی تنها از طریق دلایل وابسته-به-عامل امکان پذیر است. در این مقاله با تحلیل تعبیرهایی که از دو شرط مطرح شده ارائه می شود از یک تعبیر که پیش از این پیشنهاد نشده به عنوان کم مسئله ترین تعبیر از جهت حل مسئله ذکرشده دفاع خواهد شد. برای این کار استدلال می شود که شکاف مسئولیت زمانی پر می شود که تاریخچه رویدادهایی که توسط سامانه های خودگردان ایجاد می شود شامل فرایندی باشد که طی آن عامل مجموعه ای از دلایل هنجاری را به عنوان دلایل قابل قبول خود بپذیرید. اگر دلایلی که مطابق آنها سیستم به صورت خودگردان رفتار می کند متعلق به یک عامل بشری باشد، آنگاه مسئولیت رویدادهایی که ایجاد می شود نیز متعلق به آن عامل خواهد بود.
معنا و معیار عاملیت اخلاقی ماشین های هوشمند(مقاله علمی وزارت علوم)
حوزههای تخصصی:
تحولات شگفتی آور و شگرف در حوزه هوش مصنوعی و ظهور ماشین های هوشمند و سیستم ها و ربات های فراهوشمند، مرز و معیارهای انسان و ماشین را به چالش کشیده و به پرسش های فلسفی و اخلاقی جدیدی درباره امکان عاملیت اخلاقی ماشین های مصنوعی و انتساب مسئولیت اخلاقی به آنها دامن زده است. در این مقاله، پس از تبیین معنا و مؤلفه های عاملیت اخلاقی (خودآگاهی، خودمختاری، اراده آزاد، نیت مندی و مسئولیت پذیری)، به بررسی اهم دیدگاه ها درباره امکان عاملیت اخلاقی ماشین های پرداخته شده و اهم مبانی و مدعیات دو رویکرد اصلی در این زمینه بیان و بررسی شده است. برخی از صاحب نظران، ضمن نفی و انکار عاملیت اخلاقی ماشین ها، بر این باورند تنها انسان شروط و شرایط لازم برای عامل اخلاقی بودن را دارد و البته، برخی دیگر، ضمن بازنگری در معنای رسمی و سنتی عاملیت اخلاقی، به گونه و تقریری خاص از عاملیت اخلاقی محدود، تشکیکی و طیفی را پذیرفته و امکان اطلاق عامل اخلاقی به ماشین های فراهوشمند، بر این مبنا و معنا را موجه و مقبول دانسته و امکان اطلاق عامل اخلاقی را به ماشین ها و حتی حیوانات تعمیم و تسری می دهند. با استناد به محدودیت های کنونی ماشین های فراهوشمند و بی بهره بودن آنها از خودآگاهی و فقدان نیت مندی، شرایط لازم برای عاملیت اخلاقی کامل را نداشته و تنها به شکل مَجاز و مسامحی می توان امکان عاملیت اخلاقی محدود و ابزارگرایانه را برای رُبات ها و ماشینهای فرا/هوشمند در حوزه های خاص را پذیرفت.
اخلاق هوش مصنوعی: چهارچوبی مبتنی بر اصول ارتباطی انسان با خدا، خود، دیگران و محیط(مقاله علمی وزارت علوم)
منبع:
پژوهش دینی دوره ۲۳ پاییز و زمستان ۱۴۰۳ شماره ۴۹
205-224
حوزههای تخصصی:
این پژوهش به بررسی چارچوب اخلاقی هوش مصنوعی مبتنی بر اصول اسلامی در چهار حوزه ارتباط انسان با خدا، خود، دیگران و محیط زیست می پردازد. با استفاده از روش کیفی-تحلیلی و استناد به منابع دینی (قرآن، احادیث) و مطالعات کتابخانه ای، اصول اخلاقی اسلام استخراج کرده و تطبیق آن ها با چالش های هوش مصنوعی تحلیل شده است. بررسی ها نشان می دهد در ارتباط با خدا اصولی مانند ادای امانت الهی و عدالت، الهام بخش طراحی سیستم های شفاف، عادلانه و مسئولیت پذیر است. در ارتباط انسان با خود مدیریتی قوای درونی (قدرت طلبی، کمال طلبی) و توجه به سلامت روانی-جسمانی کاربران در طراحی الگوریتم ها ضروری است. در ارتباط با دیگران رعایت انصاف، احترام به حریم خصوصی و اجتناب از تبعیض در سیستم ها مانند تشخیص چهره و استخدام هوشمند و در ارتباط با محیط زیست بهینه سازی مصرف انرژی، کاهش آلایندگی و حفاظت از حیات وحش با کمک هوش مصنوعی از مهم ترین موارد هستند؛ در نتیجه تلفیق اصول اسلامی با اخلاق هوش مصنوعی، نه تنها از بحران هایی مانند نقض حریم خصوصی و تبعیض الگوریتمی جلوگیری می کند، بلکه هوش مصنوعی را به ابزاری برای تحقق عدالت اجتماعی و پایداری زیست محیطی تبدیل می نماید.
بررسی چگونگی اثرگذاری متقابل هوش مصنوعیِ خود مختار و حقوق اسلامی(مقاله علمی وزارت علوم)
منبع:
تحقیق و توسعه در حقوق خصوصی دوره ۱ پاییز و زمستان ۱۴۰۳ شماره ۲
180 - 205
حوزههای تخصصی:
فناوری های دارای هوش مصنوعی خودمختار در برخورد با حقوق اسلامی از یکسو اثرگذار و از جنبه ای دیگر اثرپذیر هستند. اثرگذاری هوش مصنوعی بر جنبه های مختلف حقوق اسلامی به ایجاد چالش های متعدد است و در مقابل اثرپذیری از حقوق اسلامی نیز به معنای قانونمندی و راهبری هوش مصنوعی با الزامات حقوق اسلامی است. پژوهش حاضر در گام نخست با تمسک به رویکرد توصیفی – تحلیلی و استفاده از روش تطبیقی به تبیین چالش های حقوق اسلامی در برخورد با هوش مصنوعی خودمختار خصوصاً امکان اعطای شخصیت به هوش مصنوعی پرداخته است. سپس با توجه به ضرورت اثرگذاری حقوق اسلامی، روش هایی از قبیل تعریف اخلاق اسلامی برای هوش مصنوعی و بهره مندی مناسب از بسترهای حقوقی و قانونی مرتبط در سایر نظام های حقوقی را پیشنهاد نموده است؛ به طوری که استانداردسازی مناسب این فناوری یکی از بسترهای تمدن سازی نوین اسلامی باشد.