پژوهشنامه پردازش و مدیریت اطلاعات (علوم و فناوری اطلاعات سابق)
پژوهشنامه پردازش و مدیریت اطلاعات دوره 40 تابستان 1404 شماره 4 (پیاپی 124) (مقاله علمی وزارت علوم)
یادداشتها
حوزههای تخصصی:
مقالات
پیشنهادهایی برای ایجاد ارزش افزوده «مدیریت پژوهشی» و «سیاستگذاری پژوهشی» در فعالیت های پژوهشگاه علوم و فناوری اطلاعات ایران(مقاله علمی وزارت علوم)
حوزههای تخصصی:
«ایرانداک» (با نام جدیدش پژوهشگاه علوم و فناوری اطلاعات ایران) با مأموریت «مدیریت اطلاعات علم و فناوری»، «آموزش همکاری های پژوهشی و اطلاع رسانی» و «پشتیبانی از فعالیت های علم و فناوری ایران» در مهر ۱۳۴۷ پایه گذاری شد. این نهاد امروزه یکی از موفق ترین مراکز پژوهشی و اطلاع رسانی است که توانسته سیاست گذاری های ارزشمندی در راستای توسعه منابع مادی و نیروی انسانی خود به عمل آوَرَد. همچنین در این راستا تلاش دارد همگام با پیشرفت های نوین اطلاع رسانی حرکت کرده و برای ارائه خدمات بهتر، سامانه های متعددی راه اندازی و ارائه کند. اینک با ورود به نیم قرنِ دوم فعالیت این مرکز > لازم است با «فرآوری» و «ایجاد ارزش افزوده» بر منابع و خدمات خود در راستای مأموریت های نامبرده، > اقدام ها و فعالیت های خاصی در راستای هدایت «سیاست گذاری های پژوهشی» مد نظر قرار دهد. در همین راستا، مقاله حاضر پیشنهاد می دهد که مسئولان پژوهشگاه فعالیت های بازنگری در رابط کاربری سامانه ها و در نظر گرفتن امکاناتِ گرفتن خروجی برای فعالیت های پژوهشی، سازماندهی طرح های پژوهشی، سازماندهی پایان نامه های دانشگاه ها و مؤسسات آموزش عالی غیردولتی، فراهم سازی خدمات علم سنجی، راه اندازی سامانه پرسشنامه ها و چک لیست ها، جدا کردن منابع انتهای پایان نامه ها و ارائه مستقل آن ها همراه با برقراری پیوند بین منابع و متن آثار، راه اندازی نظام موضوع های پیشنهادی، تقویت منابع «ایرانداک» از طریق فراخوان مردمی و برگزاری جشنواره «پژوهش در پژوهش » را مد نظر قرار دهند. می توان انتظار داشت که انجام این فعالیت ها بتواند «ایرانداک» را در کنار مراکزی مانند SCOPUS قرار دهد که پژوهشگران علم سنجی داده های مورد نیاز خود را از این مرکز اخذ کنند.
شناسایی ویژگی های سامانه مدیریت ایده های پژوهشی اعضای هیأت علمی: رویکرد فراترکیب(مقاله علمی وزارت علوم)
حوزههای تخصصی:
مدیریتِ ایده یک رویکرد ساختاریافته برای تولید، ارزیابی و سازماندهی ایده هاست که می تواند به بهبود دستاوردهای سازمان کمک کند. هدف این پژوهش کیفی شناسایی ویژگی های سامانه مدیریت ایده های پژوهشی اعضای هیئت علمی بود که با رویکرد سنتزپژوهی و روش فراترکیب و با استفاده از روش هفت-مرحله ای «ساندلوسکی و باروسو» انجام گرفت. تیم فراترکیب، متشکل از سه متخصص در حوزه مدیریت اطلاعات و دانش و یک متخصص در حوزه روش پژوهش فراترکیب بود. گردآوری داده ها با استفاده از هفت گام فراترکیب شامل تنظیم سؤال پژوهش، بررسی نظام مند منابع، جست وجو و انتخاب منابع مناسب، استخراج اطلاعات، تجزیه وتحلیل و ترکیب یافته های کیفی، کنترل کیفیت، و ارائه یافته ها صورت گرفت؛ بدین شکل که با جست وجوی کلیدواژه های مرتبط در هفت پایگاه اطلاعاتی و موتور جست وجو، مقاله های منتشرشده بین سال های 2000 تا2023 انتخاب گردید و بر اساس سیستم غربال گری برای ورود یا خروج مقالات، سرانجام 55 منبع پژوهشی مرتبط که همگی به زبان انگلیسی بودند، مبنای تحلیل قرار گرفت. یافته ها نشان داد که ویژگی های سامانه مدیریت ایده های پژوهشی اعضای هیئت علمی را می توان در چهار مضمون سازمان دهنده شامل جامعه و مشارکت اعضا، مدیریت سامانه، مدیریت نوآوری، و مدیریت مالی قرار داد. هر یک از این مضامین خود شامل تعدادی مضمون پایه بود و سرانجام، 58 مضمون پایه به دست آمد. اعتبار مضامین یافت شده با استفاده از تکنیک های اعتبارپذیری، انتقال پذیری و همسوسازی داده ها انجام شد. اعتمادپذیری به داده ها نیز با هدایت دقیق جریان جمع آوری اطلاعات و همسوسازی پژوهشگران تأیید گردید. با توجه به نتایج به دست آمده، سامانه مدیریت ایده های پژوهشی سودمند سامانه ای است که افزون بر دارا بودن مشخصات یک سامانه معمول مدیریتی، ویژگی هایی همچون ارتباط با کارشناسان موضوعی، ترسیم نقشه ذهنی، امکان بارش فکری، ثبت، ضبط، ویرایش و اصلاح ایده ها، انتخاب بهترین ایده ها، همچنین پیگیری وضعیت ایده و پیشرفت آن و غیره را داشته باشد. این پژوهش افزون بر اینکه برای نخستین بار به موضوع ویژگی های سامانه مدیریت ایده های پژوهشی پرداخت، یک رویکرد فراترکیب را در این حوزه به کار برد که پیش از آن تحت سلطه روش های علم طراحی قرار داشت. طراحی چنین سامانه ای به عنوان ابزاری سودمند جهت ارزیابی عملکرد اعضای هیئت علمی، ردیابی سیر فکری پژوهشگران در طول زمان و پی بردن به علایق پژوهشی آن ها مطرح است. همچنین، مدیران می توانند بر اساس گزارش های موجود در سامانه، برنامه ریزی دقیقی از پروژه های آینده سازمان خود و نیازهای فناورانه، مالی، نیروی انسانی مورد نیاز و غیره داشته باشند و از پیشرفت اجرای ایده ها مطلع شده و چالش ها و مشکلات پیش روی اجرای ایده ها را بشناسند.
بازیابی اطلاعات پایدار و هوش مصنوعی سبز: راهکاری به سوی محاسبات سازگار با محیط زیست(مقاله علمی وزارت علوم)
حوزههای تخصصی:
بازیابی اطلاعات در سامانه های مختلف اطلاعاتی، از جمله کتابخانه های دیجیتال، موتورهای جستجو، سامانه های توصیه گر و پلتفرم های آنلاین، نقشی اساسی در سازمان دهی و جستجوی اطلاعات ایفا می کند. این سامانه ها به طور گسترده ای برای تسهیل دسترسی به اطلاعات در مقیاس های مختلف، از جمله در حوزه های علمی، تجاری و اجتماعی، مورد استفاده قرار می گیرند. با این حال، استفاده از مدل های پیچیده ای مانند شبکه های عصبی عمیق و مدل های زبان بزرگ، که به دلیل نیاز به توان پردازشی بالا از سخت افزارهای قدرتمندی بهره مند می شوند، چالش های جدیدی در زمینه مصرف انرژی و اثرات زیست محیطی به وجود آورده است. این مقاله که به صورت یک مرور نظام مند تدوین شده است، به بررسی این چالش ها پرداخته و مفهوم هوش مصنوعی سبز را معرفی می کند. هوش مصنوعی سبز به عنوان رویکردی برای توسعه الگوریتم ها و سامانه های هوشمند با توجه به محدودیت های منابع انرژی و اثرات زیست محیطی آن ها مطرح شده است. با توجه به پیشرفت های اخیر در فناوری های هوش مصنوعی، به ویژه در زمینه های پردازش زبان طبیعی و یادگیری عمیق، توجه به تاثیرات زیست محیطی این مدل ها ضروری به نظر می رسد. به ویژه، افزایش مصرف انرژی و تولید گازهای گلخانه ای در فرایندهای آموزشی و استنتاج مدل های پیچیده، نیازمند رویکردهای نوآورانه برای کاهش این اثرات است. همچنین مفهوم بازیابی اطلاعات پایدار معرفی شده و روش های اندازه گیری گازهای گلخانه ای و استراتژی های کاهش این گازها در فرآیندهای بازیابی اطلاعات ارائه می گردد. هدف اصلی این مقاله، جلب توجه جامعه علمی به اهمیت کاهش اثرات زیست محیطی در طراحی و پیاده سازی سامانه های بازیابی اطلاعات است. به ویژه، بر این نکته تاکید می شود که محققان و طراحان سامانه های بازیابی اطلاعات باید علاوه بر تمرکز بر کارایی و دقت سامانه ها، اثرات زیست محیطی آن ها را نیز در نظر بگیرند. در این راستا، برای ایجاد بازیابی اطلاعات پایدار، می توان با بهینه سازی الگوریتم ها، استفاده مجدد از مدل های پیش آموزش دیده و بهره گیری از محاسبات ابری، مصرف انرژی و هزینه ها را کاهش داد. این رویکردها نه تنها موجب کاهش هزینه ها و بهبود کارایی سامانه ها می شود، بلکه گامی موثر در جهت پایداری محیط زیستی نیز خواهند بود. علاوه بر این، این مقاله به محققان پیشنهاد می کند که در فرآیند تحقیقاتی خود، اثرات محیط زیستی را به عنوان یک پارامتر حیاتی در نظر بگیرند.
واکاوی استعمار داده: از تبیین سلطه گری نوین تا ضرورت حکمرانی ملی بر داده(مقاله علمی وزارت علوم)
حوزههای تخصصی:
در عصر حاضر که داده به عنوان سرمایه راهبردی کشورها شناخته می شود، شرکت های بزرگ فناوری با بهره گیری از ابزارهای پیشرفته به جای تسخیر سرزمین ها و منابع طبیعی، داده های کاربران را تصاحب می کنند. در این راستا، پژوهش حاضر نشان می دهد که چگونه شرکت های بزرگ فناوری با ایجاد ساختارهای داده محور، مفهوم جدیدی از سلطه گری (استعمار داده) را شکل داده اند . در این مسیر، مطالعه حاضر با بهره گیری از روش تحلیل محتوای کیفی به واکاوی چند جانبه پدیده استعمار داده پرداخته است . به رغم اینکه دامنه نفوذ استعمار داده از مرزهای جغرافیایی فراتر رفته و به چالشی جهانی تبدیل شده و ابعاد بین المللی نیز یافته است، دامنه این پژوهش بر حوزه ملی به ویژه ارائه راهکارهایی برای تقویت توان کشور در رویارویی با این پدیده متمرکز است. در این خصوص یافته های پژوهش نشان می دهد که چهار عامل اصلی شامل خلأ قانونی و ضعف در الزامات حقوقی، فقدان زیرساخت های فنی، ضعف سازوکار نظارتی، و پایین بودن سطح سواد داده به عنوان عناصر زمینه ساز استعمار داده شناسایی شده اند. این عوامل در تعامل با یکدیگر به تضعیف حاکمیت داده و سرانجام، تضعیف نظام حکمرانی بر داده می انجامند. بدین جهت پژوهش حاضر در راستای مقابله با این پدیده، با تأکید بر ضرورت اتخاذ رویکردی جامع و نظام مند، راهکارهایی متناظر با عوامل زمینه ساز ارائه می دهد که شامل قانون گذاری خاص و تقویت چارچوب های حقوقی، توسعه زیرساخت های فنی، ارتقای سازوکارهای نظارتی، و افزایش سطح سواد دیجیتال است. نتایج همچنین نشان می دهند که این راهکارها در تعامل با یکدیگر می توانند ضمن تقویت حاکمیت ملی نسبت به داده، به استحکام نظام حکمرانی داده بینجامند. سرانجام اینکه نتایج این مطالعه مؤید آن است که مواجهه مؤثر با این پدیده، مستلزم تعریف چارچوب حقوقی نوینی است که در آن، حاکمیت داده به مثابه یکی از ارکان بنیادین حاکمیت ملی مورد شناسایی و حمایت قرار گیرد.
بررسی روش های استخراج قانون در داده کاوی: مرور نظام مند مطالعات(مقاله علمی وزارت علوم)
حوزههای تخصصی:
قوانین استخراج شده از داده ها یکی از مهم ترین و کاربردی ترین اشکال نمایش دانش هستند که در حوزه های مختلفی مانند سیستم های خبره، پشتیبانی تصمیم و کنترل خودکار کاربرد دارند. روش های استخراج قانون به دلیل شفافیت و تفسیرپذیری بالا به محققان امکان می دهند که الگوها و روابط زیربنایی درون داده ها را درک کنند. از این رو، رویکردها و الگوریتم های متعددی برای استخراج قانون از داده ها توسعه یافته که هر یک نقاط ضعف و قوت مربوط به خود را دارند. این مقاله با استفاده از روش مرور نظام مند به بررسی روش های استخراج قانون در حوزه داده کاوی پرداخته است. در این پژوهش 678 مقاله از پایگاه های علمی معتبر جمع آوری شد و پس از غربالگری، 19 مقاله برای تحلیل نهایی انتخاب شدند. تحلیل ها در سه بخش انجام شده است: 1) تحلیل نقادانه راهبرد های استخراج قوانین و معیارهای تحلیل عملکرد آن ها، 2) شناسایی شکاف های پژوهشی بر اساس تحلیل های صورت گرفته با هدف ارائه زمینه های مطالعاتی برای تحقیقات آینده، و 3) تحلیل محتوای متنی پژوهش ها با استفاده از ابزارهایی مانند VOS viewer برای شناسایی مفاهیم کلیدی و ارتباطات میان آن ها. نتایج این پژوهش می تواند به توسعه الگوریتم های کارآمدتر استخراج قانون در حوزه های مختلف کمک کرده و زمینه ساز تحقیقات آینده در این حوزه باشد .
فردوس-لکس: پیکره واژگانی از منابع آموزشی فارسی برای غیرفارسی زبانان(مقاله علمی وزارت علوم)
حوزههای تخصصی:
پژوهش حاضر با هدف تدوین پیکره ای مطابق با همپوشانی واژگانی در سطوح مبتدی، میانه و پیشرفتة منابع آموزش زبان فارسی به غیرفارسی زبانان در ایران، با رویکردی پیکره آگاه و روشی رایانشی انجام شد. این مطالعه در سه مرحله صورت گرفت. در مرحله اول، دادگان پژوهش شامل 14585 واحد واژگانی از 26 منبع آموزشی در سه سطح مبتدی، میانه و پیشرفته انتخاب شدند. این منابع شامل مجموعه کتاب های «پرفا»، «مینا»، «شیراز»، «پارسا»، «رسا»، «نگارا»، «خوانا» و «آموزش نوین زبان فارسی» بودند. سپس، تمامی واژگان به صورت دستی تایپ شده، به صورت رایانشی پیش پردازش شده، و برچسب اجزای کلام دریافت کردند. هنجارسازی به طور عمده با ابزار «دادماتولز» انجام پذیرفت. واحدسازی، بن واژه سازی و برچسب دهی اجزای کلام با استفاده از «استنزا» صورت پذیرفت. در مرحله دوم، با بهره گیری از برنامه نویسی «پایتون»، با کمک اجتماع و اشتراک بین مجموعه های واژگان هر کتاب، میزان همپوشانی واژگان در هر سطح و بین سطوح مختلف تعیین شد. در مرحله سوم، ماشین خوان کردن صورت پذیرفت؛ بدین صورت که یک پیکره با استاندارد نشانه گذاری XML توسعه داده شد که برای هر واژه در سطوح مختلف دارای حرف الفبا، واحد، بن واژه ، دامنه همپوشانی، برچسب اجزای کلام و فراداده کتاب های منبع آن است. نتایج پژوهش نشان داد که با افزایش سطح زبان آموزی، میزان همپوشانی واژگان روندی ثابت و سپس کاهشی دارد؛ به طوری که در سطوح مبتدی و میانه به ترتیب، در حدود ۳۶ درصد و 5/36 درصد همپوشانی مشاهده شد، اما در سطح پیشرفته این میزان به ۱۳ درصد کاهش یافته است. واکاوی اجزای کلام در هر سطح نشان داد که اسم ، فعل و صفت پرتکرارترین اجزای کلام در تمامی سطوح هستند. همچنین، در مقایسه همپوشانی واژگان بین سطوح مختلف (مبتدی و میانه، میانه و پیشرفته، مبتدی و پیشرفته) مقوله اسم بالاترین سهم را داشت. این یافته ها بر طراحی نظام مند منابع آموزشی جهت پیشرفت تدریجی مهارت های زبانی تأکید دارند.
تحلیل و بررسی مزایا و چالش های اخلاقی مدل های زبانی بزرگ در سپهر پژوهش(مقاله علمی وزارت علوم)
حوزههای تخصصی:
مدل های زبانی بزرگ چه کاربست هایی دارند و این کاربست ها به چه مزایا و چالش هایی به ویژه در سپهر پژوهش می انجامند؟ در این مقاله به تحلیل و بررسی مهم ترین مزایا و چالش های اخلاقی این مدل های زبانی خواهیم پرداخت. خواهیم دید که در کنار مزایایی همچون رفع موانع زبانی برای نویسندگان غیرانگلیسی زبان، کاهش هزینه آماده سازی، صرفه جویی در زمان، افزایش کیفیت نگارش، ترویج راحت تر دانش، و کمک به پژوهشگران دارای شرایط خاص، چالش های مهمی نظیر توهم ، مسئولیت پذیری و مؤلف بودن، مشابه نویسی و سرقت ادبی، سوگیری، امنیت و حریم خصوصی، ایمنی و توان آسیب رسانی، شفافیت و توضیح پذیری، مسائل زیست محیطی، بیکاری و بهره کشی نیز وجود دارد. با تحلیل این مزایا و چالش ها و گریز از رویکردهای کاملاً خوشبینانه یا بدبینانه نسبت به این فناوری، نشان خواهیم داد که برای رفع یا کمینه کردن شدت برخی از چالش ها، به ویژه چالش های خاصی که مدل های زبانی در سپهر پژوهش ایجاد می کنند، نیاز به کارهای نظری، سیاستی، آموزشی و فنی وجود دارد.
ارائه مدل مفهومی تجربه کاربری در حوزه تعامل انسان-رایانه با استفاده از روش تحلیل مضمون(مقاله علمی وزارت علوم)
حوزههای تخصصی:
با افزایش میزان استفاده از اینترنت و همچنین گسترش وسیع تعامل انسان-رایانه در مصنوعات و اشیای مختلف، نقش مفهوم تجربه کاربری روز به روز در این حوزه برجسته تر می شود. تأثیر این عامل بر مقبولیت محصولات و همچنین خدمات دیجیتال و آنلاین شناخته شده و مورد تأیید متخصصان این حوزه است. با این حال، به رغم کوشش ها و پژوهش های صورت گرفته در خصوص تجربه کاربری، فقدان یک تبیین جامع و معتبر، به طوری که ماهیت تجربه کاربری را تعریف کرده و عناصر مؤثر بر آن را تعیین نماید، در ادبیات پژوهشی حوزه تعامل انسان-رایانه مشهود است.
پژوهش حاضر با هدف شناسایی مؤلفه های تجربه کاربری و ارائه تصویری شفاف از این مفهوم به روش تحلیل موضوعی انجام شد و بر این اساس به لحاظ هدف، یک پژوهش بنیادی است که با استفاده از یک روش تحلیلی بر روی اطلاعات کیفی اجرا شده است.
برای انجام این پژوهش از روش تحلیل موضوعی استفاده شد. این روش در شش فاز به تجزیه و تحلیل داده های پژوهش می پردازد. داده های پژوهش از منابع معتبر دانشگاهی و به روش کتابخانه ای گردآوری شد. تحلیل داده ها بر اساس فازهای تحلیل موضوعی انجام گردید و فرایند کدگذاری در دو مرحله انجام شد و سرانجام، تم های یافت شده پس از دسته بندی تعریف شدند.
یافته های این پژوهش به ترتیب، یک چارچوب مفهومی برای تجربه کاربری در حوزه تعامل انسان-رایانه و همچنین عناصر معرف و سازنده آن است. عناصر سازنده به همراه ویژگی های معرف آن، که خصوصیات ذاتی آن هستند، یک مفهوم چندوجهی می سازند که دارای سه سطح (زیبایی شناختی، عاطفی و معنایی) و سه نوع (ارگونومیک، تأثیری و شناختی) است.
تشخیص متن در اسناد فارسی چاپی بر اساس شبکه های عصبی بازگشتی(مقاله علمی وزارت علوم)
حوزههای تخصصی:
تشخیص خودکار متن فارسی به دلیل ویژگی های یکتای خط فارسی از جمله ساختار پیوسته، اشتراک بالای ویژگی های بصری بین حروف، و تنوع بالای نوشتاری حروف با توجه به موقعیت آنان در کلمه همواره چالش برانگیز بوده است. هدف این پژوهش ارائه یک مدل نویسه خوانی نوری است که بتواند اسناد چاپی و علمی فارسی را که شامل پایان نامه ها، مقالات و کتب فارسی است، به متن قابل ویرایش تبدیل کند. این امر برای برچسب گذاری، فهرست بندی و بازیابی اطلاعات در پایگاه داده ها یک ضرورت محسوب می شود. این مقاله رویکردی ترکیبی مبتنی بر معماری های یادگیری عمیق برای تشخیص متن فارسی ارائه می دهد. در این روش از شبکه های عصبی پیچشی برای استخراج ویژگی ها و از شبکه های عصبی بازگشتی برای تشخیص کلمات استفاده می شود. مزیت اصلی این مدل، توانایی آن در تشخیص مستقیم متن چاپی فارسی بدون نیاز به پیش پردازش های پیچیده مانند ناحیه بندی حروف است. مدل پیشنهادی با استفاده از یک مجموعه داده اختصاصی و بزرگ، شامل بیش از دو میلیون نمونه که با پنج فونت متداول فارسی تولید شده ، آموزش داده شده است. مدل معرفی شده دقت 81 درصد در تشخیص حروف فارسی و 60 درصد در تشخیص کلمات دارد. عمده ترین خطاها در کلمات مرتبط با نیم فاصله و علائم بود.
تشخیص و دسته بندی نظرات کاربران توئیتر در برابر بحران های خشکسالی در ایران با کمک روش های یادگیری ماشین(مقاله علمی وزارت علوم)
حوزههای تخصصی:
هدف این پژوهش شناسایی و دسته بندی نظرات کاربران فارسی زبانِ «توئیتر» در رابطه با موضوع بحران های خشکسالی در ایران و سپس، توسعه مدلی برای تشخیص این نظرات در پلتفرم «توئیتر» است. ازاین رو، مدلی با کمک روش های یادگیری ماشین و متن کاوی برای تشخیص نظرات کاربران فارسی زبانِ «توئیتر» توسعه داده شد. جامعه آماری پژوهش، تعداد 42028 توئیت منتشرشده در بازه زمانی یک ساله مرتبط با خشکسالی بود. این توئیت ها با کلیدواژه های مرتبط با مسایل و بحران های خشکسالی در ایران، از «توئیتر» استخراج شد و سپس، یک نمونه 2300تایی توئیت به روش کیفیِ تحلیل تم، برچسب گذاری، دسته بندی و تحلیل شد. آنگاه یک دسته بندی چهارتایی از نظرات کاربران در رابطه با بحران های خشکسالی و تاب آوری ایرانیان در برابر این بحران ها شناسایی گردید. سپس، مبتنی بر این چهار دسته، مدل یادگیری ماشین بر اساس روش رگرسیون لجستیک برای پیش بینی و تشخیص انواع نظرات در پست های «توئیتر»، آموزش داده شد. مدل توسعه داده شده دارای دقت 09/66 درصد و معیار افِ 60 درصد است که نشان می دهد این مدل، برای تشخیص نظرات کاربران ایرانی در ارتباط با بحران های خشکسالی از عملکرد خوبی برخوردار است. تشخیص نظرات در رابطه با بحران های خشکسالی در پلتفرم های اجتماعی مانند «توئیتر» از نیازهای سیاست گذاران و مدیران این حوزه است. توسعه مدل تشخیص این نظرات با روش های یادگیری ماشینی می تواند میزان تاب آوری جامعه ایرانی در برابر این بحران ها را به صورت هوشمند به سیاست گذاران نمایش داده و آن ها را نسبت به تغییرات افکار عمومی در این رابطه آگاه سازد.