مطالب مرتبط با کلیدواژه

قانون هوش مصنوعی اتحادیه اروپا


۱.

نقش و الزامات نظارت انسانی بر هوش مصنوعی در قانون اتحادیه اروپا و قوانین ایران

نویسنده:

کلیدواژه‌ها: هوش مصنوعی انسان محوری نظارت انسانی قانون هوش مصنوعی اتحادیه اروپا تصمیم گیری خودکار

حوزه‌های تخصصی:
تعداد بازدید : ۸۵ تعداد دانلود : ۸۲
در قانون هوش مصنوعی 2024 اروپا، نظارت انسانی همچون یک اقدام حفاظتی اصلی برای اپراتورهای هوش مصنوعی تأکید شده است. کمیسیون اروپا با پیشنهاد قانون جدید، الزام دقیق و جامع نظارت انسانی بر سیستم های هوش مصنوعی را مطرح کرده است. در ایران، قانون مدونی برای نظارت انسان بر هوش مصنوعی وجود ندارد؛ اما با استفاده از موادی مانند مواد 7 و 12 قانون مسئولیت مدنی، ماده 333 قانون مدنی، مواد 69 و 112 قانون دریایی و ماده 15 قانون بیمه اجباری 1395، می توان موضع قانون گذار را در این زمینه مشخص کرد. این مقاله به سؤالاتی مانند چه چیزی باید نظارت شود، چه زمانی نظارت لازم است و چه کسی باید نظارت را انجام دهد، پاسخ می دهد. همچنین، به ابهامات و شکاف های قانون جدید هوش مصنوعی و پیامدهای اعتماد بیش ازحد به ارائه دهندگان برای ایمن سازی زیرساخت نظارتی سیستم های هوش مصنوعی پرخطر اشاره می کند. این نوشتار با بررسی کتب و مقالات موجود و تجزیه وتحلیل آن ها، ساختاربندی شده است و پس از تعمق و غور در منابع موجود به این نتیجه می رسد که نه ماده 14 قانون جدید هوش مصنوعی اروپا و نه قوانین ایران، جزئیات زیادی در مورد آنچه که ناظر انسانی در هنگام اجرای نظارت باید در نظر بگیرد یا توجه خود را به آن معطوف کند، بیان نمی کند. همچنین، نشان داد که فضای زیادی برای ارائه دهندگان باقی خواهد ماند تا تعیین کنند، جزئیات مربوط به چه داده هایی را بایستی به ناظران انسانی ارائه دهند. نتیجه گیری های مشابهی در مورد «زمان» اعمال نظارت انجام شد. ارائه دهندگان باید اطمینان حاصل کنند که کاربران در هر زمان ممکن است، فرایندهای سیستم را قطع یا لغو کنند.
۲.

تاملی حقوقی بر تفسیرپذیری و توضیح پذیری هوش مصنوعی: از مفهوم شناسی تا چارچوب تنظیم گری(مقاله علمی وزارت علوم)

کلیدواژه‌ها: حاکمیت قانون دادرسی منصفانه شفافیت الگوریتمی عدالت الگوریتمی قانون هوش مصنوعی اتحادیه اروپا

حوزه‌های تخصصی:
تعداد بازدید : ۲۹ تعداد دانلود : ۲۳
تلاقی هوش مصنوعی با الزامات حقوقی مرتبط با اصول دادرسی منصفانه و ضرورت شفافیت در تصمیم گیری های حقوقی و قضایی، چالشی اساسی ایجاد کرده است. ماهیت «جعبه سیاهِ» سیستم های یادگیری عمیق با اصل «استدلال مستند» در تعارض قرار دارد و این مسئله ضرورت بازاندیشی در تبیین رابطه میان محدودیت های فنی و الزامات حقوقی را مطرح می کند. در این چارچوب، پژوهش حاضر با هدف امکان سنجی تحقق توضیح پذیری و تفسیرپذیری در سیستم های هوشمند به منظور تأمین الزامات حقوقی مربوط به دادرسی منصفانه با اتکا بر روش توصیفی-تحلیلی و رویکرد اسنادی انجام شده است. در این مسیر ابتدا مفاهیم و مرزهای توضیح پذیری و تفسیرپذیری بررسی و سپس رویکردهای تنظیم گری مانند مقررات عمومی حفاظت از داده و قانون هوش مصنوعی اتحادیه اروپا مورد واکاوی قرار گرفته است. همچنین محدودیت های فنی این فناوری و چالش های حقوقی ناشی از آن ها نیز تحلیل شده است تا میزان کارآمدی این فناوری در پاسخگویی به الزامات حقوقی سنجیده شود. در نهایت، یافته ها حاکی از آن است که تقلیل مسئله به دوگانه «شفافیت کامل» یا «جعبه سیاه مطلق» رویکردی ساده انگارانه است؛ راهکار مطلوب، طراحی نظام تنظیم گری مبتنی بر ارزیابی سطح خطر است، به گونه ای که امکان تحقق عدالت الگوریتمی در عصر هوش مصنوعی فراهم آید.